本地部署大模型体验小记

news/2025/2/7 15:59:57/文章来源:https://www.cnblogs.com/tangyikejun/p/18702766

本地部署大模型的工具

工具 优缺点
LM Studio 图形界面友好,支持API访问,参数配置灵活
Ollama GPU优化不足,CPU占用率高
Chatbox 易出现输入卡顿,交互体验待优化

Ollama 和 Chatbox 需要配合使用。

综合看更推荐使用 LM Studio 。

自定义模型

LM Studio 和 Ollama 除了使用默认的模型,还可以使用 HuggingFace 上的模型。

LM Studio 可以直接下载 gguf 格式的模型到模型文件夹。

Ollama 则可以通过如下步骤将 gguf 格式的模型导入到 Ollama 模型库中。

基本步骤如下:

  1. 准备GGUF模型文件
    • 从 HuggingFace 下载目标模型
  2. 创建ModelFile
    FROM ./mistral-7b-instruct-v0.1.Q4_K_M.gguf
    PARAMETER num_ctx 4096
    
  3. 构建&运行模型
    ollama create example -f Modelfile
    ollama run example
    

模型大小选取公式

可以根据一下公式简单评估自己的电脑能够运行多大的模型。

快速响应条件:模型大小 < (VRAM - 2GB)
最佳表现条件:模型大小 ≈ (VRAM + 空闲RAM - 2GB)

注意实际电脑正常运行时可能就会占用部分内存,所以最佳表现条件值可能需要更小。

本地硬件配置

  • RAM:32GB
  • VRAM:12GB(RTX 3060)

运行情况

  • LM Studio 可运行 14B 模型,基本只有 GPU 负载;运行 32B 模型时,CPU和内存均满载(电脑正常运行本身就占用了20GB左右的内存)
  • Ollama 运行 14B 模型就会把 CPU 和内存占满,而 GPU 只利用到很小一部分

模型表现对比

根据提问 “狸花猫的品种有哪些”,对几个不同版本进行测试,发现

  • deepseek-r1 线上版本:回答逻辑性强,内容准确但略显干瘪
  • deepseek-r1-7b 本地部署:回答不够清晰,似是而非
  • kimi-联网:内容丰富,分类多样,但缺乏逻辑性

总的来说,本地部署的模型还是差点意思,有可能的话,还是使用线上模型更好。

参考链接

HuggingFace 各种模型都可以下载(下载速度可达 80MB/s)
OpenRouter 支持多模型同时提问
ChatGPT - Genie AI gpt前端,配置 API-KEY 后即可使用

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/880089.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

oi-math 重修

OI 数学重修 注: 很多东西没来得及写例题和代码,以后遇到会补上 想了一下虽然还有很多没写完,但是这两天要开数学了,决定后面的分成一个一个博客写然后在这挂链接,所以发出来了。 主题是看着 oi-wiki 写的,但细节上尤其是证明部分不太一样,毕竟也不是什么教学性质的,权…

方差、标准差、变异系数举例

一、标准差,也称均方差,是方差的算术平方根,标准差能反映一个数据集的离散程度。平均数相同的两组数据,标准差未必相同。太绕了,上例子:1、先找出平均数。平均数是数据的平均值,把数据加起来然后除以数据个数就可以得到。2、再找出方差。方差是数据偏离平均数的程度。得…

中电金信:大咖漫话|如何营销AI赋能的远程银行

看过“从远程银行看AIGC”连载,今天将与各位漫话AI的营销“哲学”。祝各位事业蟠蟠,巳巳如意,我们开年再会!

miniconda配置及常用命令,windows系统环境变量设置

安装完miniconda后,如果cmd中输入"conda info"没有输出信息,说明需要手动配置环境变量。 (1)右键点击桌面上“此电脑”,点击“属性” (2)在弹出的页面里点击“高级系统设置”(3)点击“环境变量”(4)双击“系统变量”里面的"Path":(5)点击“新…

CPUID CPU-Z(CPU检测工具) v2.14.0 中文绿色版

软件介绍 CPU-Z是最权威的CPU处理器检测工具。它支持的CPU种类相当全面,软件的启动速度及检测速度也很快,能够准确的检测出CPU、主板、内存、显卡、SPD等相关信息,包含制造厂及处理器名称,核心构造及封装技术,内部外部频率,最大超频速度侦测,处理器相关可以使用的指令集…

Windows11本地部署DeepSeek加速

本文介绍了一个可以相比之下更快速的在本地部署DeepSeek的方法,除了在上一篇博客中介绍的从Github或者Github加速网站获取Ollama之外,还可以通过从国内的其他大模型文件平台下载模型文件,来加速本地模型的构建。技术背景 在上一篇文章中我们介绍了在Ubuntu Linux操作系统上部…

EverEdit扩展脚本:在当前文件目录下新建同类型文件(增强)

1 扩展脚本:在当前文件目录下新建同类型文件(增强) 1.1 应用场景之前使用JS写了一个EverEdit的脚本,用于在当前打开的文档目录下新建一个同类型的文件,比如,在进行python语言学习时,做完练习,需要再开一个文件写代码,原脚本的不足是,每次弹出提示输入文件名的输入框,输…

Deepseek R1 + LMStudio 本地部署(windows)

DeepSeek-R1本地部署配置要求 Github地址:https://github.com/deepseek-ai/DeepSeek-R1?tab=readme-ov-file模型规模最低 GPU 显存推荐 GPU 型号纯 CPU 内存需求适用场景1.5B 4GB RTX 3050 8GB 个人学习7B、8B 16GB RTX 4090 32GB 小型项目14B 24GB A5000 x2 64GB 专业应用32…

GO指南之练习答案

GO指南之练习答案 Go指南 练习:循环与函数 为了练习函数与循环,我们来实现一个平方根函数:给定一个数 x,我们需要找到一个数 z 使得 z 尽可能地接近 x。 计算机通常使用循环来计算 x 的平方根。从某个猜测的值 z 开始,我们可以根据 z 与 x 的近似度来改进 z,产生一个更好…

第三轮easy~hard题目

题目1代码 #include<iostream> #include<queue> #include<string> using namespace std; int main() {priority_queue<int> s;string str;int a;str="0";while(str!="end"){cin>>str;if(str=="insert"){cin>&g…

通过Ollama本地部署DeepSeek R1以及简单使用

本文介绍了在Windows环境下,通过Ollama来本地部署DeepSeek R1。该问包含了Ollama的下载、安装、安装目录迁移、大模型存储位置修改、下载DeepSeek以及通过Web UI来对话等相关内容。1、下载Ollama 首先我们到Ollama官网去下载安装包,此处我们下载的是Windows版本的安装包,如下…