前几天A梦分享过DeepSeek的三种使用方式:移动应用APP、网页版本和本地部署。由于DeepSeek的用户数量庞大,导致请求频次较高,用户常常会遇到"服务器繁忙,请稍后重试"的提示。而选择本地部署则可以避免这种问题,并且支持离线使用。正因如此,官方推荐用户选择本地部署,并将DeepSeek开源,以便更好地满足用户需求。
分享一种保护隐私、离线可用,并且彻底告别服务器繁忙的DeepSeek使用方案: DeepSeek 本地部署;
获取方式:
微信搜索公众号:纪元A梦,聊天界面发送:DeepSeek
更多资源:
http://sj.ysok.net/jydoraemon 访问码:JYAM
DeepSeek 本地部署是指将DeepSeek模型下载到本地电脑上,利用电脑的显卡进行数据处理和推理,可以减少网络延迟,提高数据处理和响应速度,从而避免将数据传输到云端,增强了数据的主权和控制,减少了因网络连接可能带来的安全风险。
工具说明:
◆ DeepSeek本地部署需要的工具,以下工具均可通过对于官网下载,为了方便小伙伴们使用,也可直接通过文章开头关键字获取全部工具;
★ Ollama大模型部署容器,方便部署、管理大模型;
★ DeepSeek-R1大模型(1.5b、7b、8b、14b、32b、70b、671b)
★ 谷歌浏览器结合Page Assist插件实现DeepSeek可视化操作界面;
㈠、Ollama安装:
◆ Ollama下载:为了方便使用,可直接通过文章开头关键字获取;
★ Ollama是一个专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计的开源框架,简单来说就是一个方便部署、管理大模型的容器,
★ 浏览器搜索Ollama即可得到官网地址(https://ollama.com/),点击进入即可;
★ 进入官方后,点击Download即可进入下载页面;
★ 根据个人需求选择合适的版本,选择完成后点击“Download for xxxx”进行下载即可;
◆ Ollama自定义安装:
★ 本地创建Ollama安装目录:在你想安装的磁盘下创建Ollama文件夹,并将下载的OllamaSetup.exe安装包放进文件夹中;
★ 例如我的是:D:\DeepSeek\Ollama;
★ 在磁盘地址栏上输入:cmd,并点击回车打开命令窗口;
★ 在命令窗口中输入:OllamaSetup.exe /DIR=D:\DeepSeek\Ollama
★ 语法:软件程序全称 /DIR=这里是上面创建好的Ollama指定目录;
★ 命令输入完成后,点击回车即可开启Ollama安装界面;
★ 选择右下角的“Install”即可开始Ollama安装;
★ Ollama安装中,等待软件安装完成即可;
◆ Ollama配置:
★ 配置前需要先退出运行的Ollama;
★ Ollama安装完成后,会在电脑右下角出现Ollama图标;
★ 图标上右键,选择"Quit Ollama"退出Ollama;
★ 关闭Ollama开机自启(可选):
★ Ollama 默认会随 Windows 开机自启,可以在「文件资源管理器」的地址栏中输入以下路径,删除Ollama.lnk快捷方式文件,即可阻止Ollama开机自启。
%APPDATA%\Microsoft\Windows\Start Menu\Programs\Startup
★ Ollama 的默认模型存储路径为:C:\Users%username%.ollama\models;
★ 无论C盘空间大小,需要安装多少模型,都建议换一个存放路径到其它盘;
★ 打开"系统环境变量";
★ 新建一个系统变量:
★ 变量名:OLLAMA_MODELS ;
★ 变量值:创建并选择Ollama模型的存储路径;
◆ 运行Ollama:
★ 开始菜单搜索Ollama,搜索完成后点击Ollama图标即可启动软件;
㈡、DeepSeek本地部署:
◆ DeepSeek-R1下载:为了方便使用,可直接通过文章开头关键字获取;
★ 在Ollama官网,选择左上角的“Models”;
★ 选择模型页面的“deepseek-r1”;
★ 根据个人电脑配置,选择参数配置;
★ DeepSeek-R1大模型分为1.5b、7b、8b、14b、32b、70b、671b;
★ 数值越大,性能越强(比如:1.5B是指该模型的一个具体参数规模为1.5B(即15亿)参数的版本,可以在单张4GB显存的显卡上运行);
★ 不同参数版本的DeepSeek-R1特点、使用场景和硬件配置要求;
★ 以7b安装为例
★ 选择参数为7b后,点击复制右侧的命令”ollama run deepseek-r1:7b“;
★ 打开电脑的命令行界面(快捷键:win+r,输入cmd,回车确定即可)
★ 右键粘贴刚刚复制的命令;
★ 命令粘贴完成后,点击回车下载安装即可;
★ 出现”success“即为安装成功;
★ 模型测试:直接输入内容,输入完成后点击回车即可;
㈢、DeepSeek界面化操作:
◆ 谷歌+Page Assist实现可视化界面:
★ DeepSeek模型安装完成后,打开谷歌浏览器安装浏览器插件Page Assist(本地AI模型的WebUI);
★ 插件官方下载:https://github.com/n4ze3m/page-assist
★ 为了方便使用,可直接通过文章开头关键字获取;
★ 点击浏览器右上角扩展程序→选择管理扩展程序→打开开发者模式;
★ 解压下载的”pageassist-1.5.0-chrome.zip“文件夹;
★ 扩展程序选择→加载已解压的扩展程序→找到刚刚解压的Page Assist文件夹并选中→点击选择文件夹即可;
★ 插件安装完成后,会在所有扩展程序下展示;
★ 选择浏览器右上角的扩展程序,将Page Assist后的图标点亮即可将Page Assist固定到菜单栏上;
★ 插件中文设置:点击Page Assist插件即可打开 DeepSeek 的可视化界面→点击设置按钮→将语音识别内容和语言均设置为简体中文即可;
★ 模型选择,点击点击Page Assist插件即可打开 DeepSeek 的可视化界面→点击设置按钮→选择左侧的RAG设置→文本嵌入模型下是你安装的模型,选择你想要使用的模型→模型选择完成后点击底部的保存即可;
★ 回到Page Assist首页,选择模型即可使用;
本地部署的优势:
◆ 隐私保护:
★ 可以避免将敏感数据传输到云端,增强了数据的主权和控制,减少了数据泄露或未授权访问的风险。
◆ 性能优化:
★ 可以减少网络延迟,提高数据处理和响应速度,尤其是在需要高速数据处理或实时响应的场景中。
◆ 降低成本:
★ 可以减少持续的云服务费用,特别是在数据量非常大或需要长期稳定运行的情况下。
◆ 自主控制与灵活性:
★ 可以根据特定需求进行定制开发,更好地满足业务流程和数据分析的具体要求,同时拥有完全的技术栈控制权,可以更灵活地集成其他系统或工具。
获取方式:
微信搜索公众号:纪元A梦,聊天界面发送:DeepSeek
更多资源:
http://sj.ysok.net/jydoraemon 访问码:JYAM