- 安装 Ollama
- 简介
- 安装
- 运行模型
- 选择嵌入模型(Embedding)
- 安装和使用Cherry Studio
- 配置Cherry Studio
- 配置使用本地模型
- 知识库配置
- 配置Cherry Studio
安装 Ollama
简介
Ollama 是一个开源的大型语言模型(LLM)平台,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。
提供了一个简单的方式来加载和使用各种预训练的语言模型,支持文本生成、翻译、代码编写、问答等多种自然语言处理任务。
支持多种硬件加速选项,包括纯 CPU 推理和各类底层计算架构(如 Apple Silicon),能够更好地利用不同类型的硬件资源
安装
Ollama 官方下载地址:https://ollama.com/download 选择适合你的平台安装包即可
下载完成双击安装包机型安装即可,安装完成后会自动打开终端,如果没有自动打开,可自己打开:按快捷键Win + R
后在出现的框中输入cmd
运行即可。
运行模型
根据自己电脑的配置和需求先择合适的模型运行,DeepSeek-R1官方基于完整的模型提供了6个蒸馏模型,蒸馏模型相对完整版性能有所下降,但是对显存和内存的配置要求也降低了,我们正常本地部署使用蒸馏版就可以。下面是完整模型和各个蒸馏模型的对比:
模型名称 | 参数量 | 模型大小 | 特点 | 推荐配置要求 |
---|---|---|---|---|
deepseek-r1:1.5b | 1.5b | 1.1G | 轻量级模型,适合低配硬件,性能有限但运行速度快 | 4G显存、16G内存 |
deepseek-r1:7b | 7b | 4.7G | 平衡型模型,适合大多数任务,性能较好且硬件需求适中 | 8G显存、16G内存 |
deepseek-r1:8b | 8b | 4.9G | 略高于 7B 模型,性能稍强,适合需要更高精度的场景 | 10G显存、16G内存 |
deepseek-r1:14b | 14b | 9.0G | 高性能模型,适合复杂任务(如数学推理、代码生成),硬件需求较高 | 10G显存、32G内存 |
deepseek-r1:32b | 32b | 20G | 专业级模型,性能强大,适合研究和高精度任务,需高端硬件支持 | 24G显存、64G内存 |
deepseek-r1:70b | 70b | 43G | 顶级模型,性能最强,适合大规模计算和高复杂度任务,需专业级硬件支持 | 40G显存、64G内存 |
deepseek-r1:671B | 671B | 404G | 超大规模模型,性能卓越,推理速度快,适合极高精度需求 |
选定模型后,在上面打开的终端中运行以下命令,这里以1.5b模型为例,实际执行把模型名改成你选定的即可。
ollama run deepseek-r1:1.5b
模型下载可能有点慢,等待进度条完成即可进入提问界面,如果卡在一两百兆的下载速度,可以Ctrl + C 中断命令后重新运行,ollama是支持断点续传的:
选择嵌入模型(Embedding)
嵌入式模型(Embedding)是一种广泛应用于自然语言处理(NLP)和计算机视觉(CV)等领域的机器学习模型,它可以将高维度的数据转化为低维度的嵌入空间(embedding space),并保留原始数据的特征和语义信息,从而提高模型的效率和准确性。
我们给模型学习的知识,需要使用嵌入模型传化为嵌入向量才能被模型学习
对于中文文本的学习语料,这里我们选择 bge-m3 作为我们的嵌入模型示例,安装和 deepseek 完全一样,一个命令即可安装
ollama pull bge-m3
注意:嵌入类模型、对话类模型、绘画类模型等各自有各自的功能,其请求方式跟返回内容、结构都有所不同,请勿强行将其他类别的模型作为嵌入模型使用
安装和使用Cherry Studio
Cherry Studio AI 是一款强大的多模型AI 助手,支持iOS、macOS 和Windows 平台。快速切换多个先进的LLM 模型,聚合了主流大语言模型服务。类似的AI客户端还有:AnythingLLM、ChatBox等。需要更复杂功能的还可以看看open-webui,但其需要部署,要求有一定的技术能力
进入官网 https://cherry-ai.com/download 进行下载即可。
官网还有使用文档,不熟悉的可以看一下:https://docs.cherry-ai.com/
配置Cherry Studio
配置使用本地模型
在设置中开启 ollama ,选择管理添加R1模型
然后在首页添加助手,使用默认助手即可,然后编辑助手,在模型设置中使用我们刚刚添加的R1模型
最后把对话框最上面的模型切换成我们刚刚安装的R1模型即可开始进行AI聊天和问答
知识库配置
与推理模型一样,先在设置中将我们的嵌入模型添加上
然后在知识库中创建对应的知识库并上传知识文件,等向量化完成便可以在模型中使用对应的知识库。