Windows安装ollama运行deep seek R1模型+Page Assist浏览器插件本地使用

news/2025/2/27 22:39:07/文章来源:https://www.cnblogs.com/womaspace/p/18742203

在Windows系统上安装Ollama并运行DeepSeek R1模型,同时结合Page Assist浏览器插件实现本地使用,可以按照以下步骤操作:

一、安装Ollama

下载Ollama

访问Ollama官方网站,下载适用于Windows的版本。
img

安装路径默认在c盘
img

创建符号链接

原路径:

 C:\Users\18368\.ollama

目标路径:

 D:\Project\AI Project\.ollama

创建目标路径将原路径内容剪切至目标路径,然后删除原路径创建链接

 New-Item -ItemType SymbolicLink -Path "C:\Users\18368\.ollama" -Target "D:\Project\AI Project\.ollama"

img

原路径:

  C:\Users\18368\AppData\Local\Programs\Ollama

目标路径:

  D:\Project\AI Project\Ollama
  New-Item -ItemType SymbolicLink -Path "C:\Users\18368\AppData\Local\Programs\Ollama" -Target "D:\Project\AI Project\Ollama"

更改Ollama安装位置

Ollama默认安装在用户目录下(例如:C:\Users\<用户名>\AppData\Local\Programs\Ollama),但可以通过安装程序的参数更改安装位置。

步骤

  • 下载Ollama安装程序(OllamaSetup.exe)。

  • 使用命令行启动安装程序,并指定安装路径。例如:

  • OllamaSetup.exe /DIR="D:\Ollama"
    
  • 将Ollama安装到D盘的Ollama文件夹。

更改模型存储位置

Ollama的模型默认存储在C:\Users\<用户名>\.ollama\models,可以通过设置环境变量OLLAMA_MODELS来更改模型存储位置。

步骤

  • 打开“此电脑”或“计算机”属性,选择“高级系统设置”。
  • 在“系统属性”窗口中,点击“环境变量”。
  • 在“系统变量”或“用户变量”中点击“新建”,添加以下环境变量:
    1. 变量名OLLAMA_MODELS
    2. 变量值:目标路径,例如D:\AIModels\Ollama
  • 如果之前已下载模型,可以将C:\Users\<用户名>\.ollama\models中的内容剪切到新路径。
  • 重启Ollama以使更改生效。

配置环境变量(可选)

  1. 如果需要更改模型的存储路径(例如避免占用C盘空间),可以设置环境变量OLLAMA_MODELS,例如:
 OLLAMA_MODELS=E:\ai\ollama\models
  1. 如果使用多GPU,可以设置CUDA_VISIBLE_DEVICES环境变量。

二、下载并运行DeepSeek R1模型

获取模型

  1. 打开Ollama的模型库页面,找到DeepSeek R1模型。
  2. 根据需要选择模型版本(如deepseek-r1:7bdeepseek-r1:1.5b),并复制对应的运行命令。

运行模型

打开命令提示符,以管理员身份运行以下命令:

   ollama run deepseek-r1:7b

img

img

等待模型下载和加载完成。

验证模型

在终端中输入一些问题(如“请用Python写一个快速排序算法”),检查模型是否能正常响应。

三、安装Page Assist浏览器插件

安装插件

打开Chrome浏览器,进入Chrome Web Store,搜索并安装Page Assist插件。

img

如果无法访问Chrome商店,可以下载.crx文件,并通过浏览器的扩展程序页面手动安装。

配置插件

  1. 安装完成后,打开Page Assist插件。

  2. 在设置中选择Ollama作为本地AI模型的提供商,并配置API地址为http://localhost:11434

img

使用插件

  1. 在Page Assist的界面中选择DeepSeek R1模型。2. 可以通过输入框与模型进行交互,支持联网搜索、对话历史记录等功能。

img

完成!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/890886.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

上海海洋大学软件开发与创新课程设计作业

我给上学期其他同学的大作业添加了一些功能,已有的功能只有用户注册并填写账号密码,然后点击登录按钮成功登录 现在添加的新功能如下: 1,添加了一个真正可以选课的页面,添加了一些课程选项 2,可以存储用户选课的历史和方案 3,添加了一个管理员页面用于查看用户账号密码以…

Qwen2.5-0.5B siglip 预训练 / 微调实验

前言视频 | 仓库跟着教程做的,记录学习过程。 环境双卡 3090 24G CUDA 12.2 transformers 4.49概述 通过在 Qwen2.5-0.5B 和 siglip 之间训练一个中间层构造 VLM。作者提到首次微调时,只冻结了视觉模型的参数,导致阶梯状的 loss 曲线,即发生过拟合。应冻结文本和视觉模型的…

2025.2.27(Java的输出换行)

如图输出println,这个ln相当于输出完后自动换一次行。如图输出print,去掉ln不换行。

优化职工信息系统文件读写错误

该系统取自于大一时期的一个同班同学的期末大作业,该职工信息系统分别实现了职工信息的增删改查,以及计算职工的总工资和平均工资等功能。但是在编写了该系统之后,出现了一些问题,其中一个文件读写的问题我觉得需要进行改进,这个代码不能自己创建文本文档在指定的文件夹,…

PL端DDR4的MIG IP核配置及example design分析(个人记录)

第一种配置方法如下。按最高2666MHz配置,这边输入的参考时钟看个人板卡情况,我这边输入是200MHz。第二种配置方法如下。按2400MHz配置(需要换芯片型号),这边输入的参考时钟看个人板卡情况,我这边输入是200MHz。这边是输入时钟设置及输出时钟设置。我这边输入是差分时钟,…

Linux上部署deepseek-r1:7b模型

通过ollama在debian上安装部署deepseek-r1:7b模型。一、安装ollama框架 访问 ollama 官网,点击下载,选择 Linux,复制安装命令执行即可。二、下载并运行模型 选择 deepseek:7b 模型,复制安装命令执行即可。 (这里的模型参数大小,可根据自己的显存大小选择,可简单安装 0.5b…

LVI_SAM虚拟机安装复现(二)

0. 前言 前一篇文章里面,已经完成了 Ubuntu 18.04 和 ROS Melodic 的安装。 还没有安装好的读者,可以回去看这一篇文章。 前情概要: LVI_SAM虚拟机安装复现(一) 本文主要记录了GTSAM源码编译安装过程中经历的坑 警告:并非从零开始零基础教你安装 GTSAM 哦 GTSAM是一个开源…

逆向软件设计—网上购书结账系统

一、作业要求找一个已有的项目(同学、高年级同学、网络下载),阅读分析,找出软件尚存的缺陷, 改进其软件做二次开发,并将这个过程整理成一份博客。 二、原项目介绍 本次课程设计我逆向开发的软件是一个使用c++编写的网上购书结账系统,原作者是22软工2班的熊知宇学长,学号…

学生管理系统二次开发与优化实践

在软件开发中,对现有项目进行优化和二次开发是一种常见的任务。本次实验中,我选择了一个基于C++开发的学生管理系统作为优化对象。该系统实现了学生信息的增删改查功能,并支持学号排序和模糊查找等功能。通过分析原项目,我发现了几个可以改进的地方,并对系统进行了优化。以…

逆向软件工程

一、来源 本次实验项目来源于c++课程设计:线上图书购买系统 二、运行环境及运行结果 运行环境:vs 2022 Windows 11 运行结果:代码展示: `#include include include "Order.h" include "Book.h" void displayMenu() { std::cout << "1. Ad…

基于MPPT最大功率跟踪的离网光伏发电系统Simulink建模与仿真

1.课题概述 基于MPPT最大功率跟踪的离网光伏发电系统Simulink建模与仿真。2.系统仿真结果 (完整程序运行后无水印)3.核心程序与模型 版本:MATLAB2022a4.系统原理简介基于最大功率点跟踪(Maximum Power Point Tracking, MPPT)的离网光伏发电系统是利用太阳光直接转换为电能…