目录
- 需要下载的软件
- 安装步骤
- 安装Ollama并运行模型DeepSeek
- 安装Hollama
- 试用python调用
需要下载的软件
- OllamaSetup.exe(Ollama是一个管理和运行大语言模型的开源工具)
- Hollama_0.25.1-win-x64.exe【可选】(Hollama是一个Ollama的可视化工具)
- python-3.13.1-amd64.exe
- VSCodeUserSetup-x64-1.96.4.exe【可选】
安装步骤
安装Ollama并运行模型DeepSeek
从官网下载相应的版本,这里使用的是Windows版本,双击执行安装文件默认会安装到C盘,可通过如下方式指定安装路径:
OllamaSetup.exe /DIR=your path
安装完毕后运行Ollama.exe即可,可通过命令ollama help
查看参数。其中,应先了解以下参数:
- serve,用来启动ollama(windows上通过安装包安装的Ollama会开机自动启动,启动后可以在浏览器中查看,地址为:http://127.0.0.1:11434/)
- run 运行一个模型(初次运行,会自动下载模型)
- list 列出所有模型
- cp 列出正在运行的模型
- rm 删除模型
- help 帮助
安装完毕并启动Ollama后,可通过执行以下命令下载并运行DeepSeek:
ollama run deepseek-r1:1.5b
更多模型请见 https://ollama.com/search, 我电脑配置低,故选的是1.5b。
如果一切正常,DeepSeek运行起来后是这样的:
这时候可以发一些文字并得到反馈了:
可输入/?
看到帮助信息
安装Hollama
Hollama也是一个开源软件,它和ollama的关系类似于Navicat和Mysql,有了它,就不用在黑糊糊的CMD下面和模型交互了,类似的软件有还有很多,请参见:https://github.com/ollama/ollama
运行起来的效果如下:
试用python调用
这里列出了可以调用Ollama服务的很多类库:https://github.com/ollama/ollama。 暂使用Python测试:
先安装模块:
pip install ollama
用VS Code编写代码如下:
import ollamaif __name__ == '__main__':res = ollama.chat(model='deepseek-r1:1.5b', stream=False, messages=[{'role': 'user', 'content':'how are you'}])print(res)
执行结果: