使用ollama运行deepseek-r1模型

news/2025/2/5 14:26:42/文章来源:https://www.cnblogs.com/zafu/p/18699353

Ollama是一个功能强大的本地大语言模型的运行框架,用户可以非常简单地运行使用各种LLM。最最主要的是它完全免费,本地可以离线运行;

1. 最简单的安装:

curl https://ollama.ai/install.sh | sh


2.也可以访问ollam.com直接点击下载安装

3. 安装完成之后,ollama list一下可以看到本地已经有的LLM情况;

 

 使用最基本的命令运行:ollama run deepseek-r1:1.5b

 

 

 

如何运行deepseek?运行模型很简单,确定好想要的模型后,复制对应的命令到你的终端并执行。

上面的命令运行之后就直接可以和deepseek-r1:1.5b大语言模型做交互;

 

 

DeepSeek-R1-Distill-Qwen-1.5B

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B

ollama run deepseek-r1:70b



顺便附上不同的deepseek的模型可以做的事情以及对系统配置的依赖情况:

1. DeepSeek-R1-1.5B

  • CPU: 最低 4 核(推荐 Intel/AMD 多核处理器)
  • 内存: 8GB+
  • 硬盘: 3GB+ 存储空间(模型文件约 1.5-2GB)
  • 显卡: 非必需(纯 CPU 推理),若 GPU 加速可选 4GB+ 显存(如 GTX 1650)
  • 场景:
    • 低资源设备部署(如树莓派、旧款笔记本)
    • 实时文本生成(聊天机器人、简单问答)
    • 嵌入式系统或物联网设备

2. DeepSeek-R1-7B

  • CPU: 8 核以上(推荐现代多核 CPU)
  • 内存: 16GB+
  • 硬盘: 8GB+(模型文件约 4-5GB)
  • 显卡: 推荐 8GB+ 显存(如 RTX 3070/4060)
  • 场景:
    • 本地开发测试(中小型企业)
    • 中等复杂度 NLP 任务(文本摘要、翻译)
    • 轻量级多轮对话系统

3. DeepSeek-R1-8B

  • 硬件需求: 与 7B 相近,略高 10-20%
  • 场景:
    • 需更高精度的轻量级任务(如代码生成、逻辑推理)

4. DeepSeek-R1-14B

  • CPU: 12 核以上
  • 内存: 32GB+
  • 硬盘: 15GB+
  • 显卡: 16GB+ 显存(如 RTX 4090 或 A5000)
  • 场景:
    • 企业级复杂任务(合同分析、报告生成)
    • 长文本理解与生成(书籍/论文辅助写作)

5. DeepSeek-R1-32B

  • CPU: 16 核以上(如 AMD Ryzen 9 或 Intel i9)
  • 内存: 64GB+
  • 硬盘: 30GB+
  • 显卡: 24GB+ 显存(如 A100 40GB 或双卡 RTX 3090)
  • 场景:
    • 高精度专业领域任务(医疗/法律咨询)
    • 多模态任务预处理(需结合其他框架)

6. DeepSeek-R1-70B

  • CPU: 32 核以上(服务器级 CPU)
  • 内存: 128GB+
  • 硬盘: 70GB+
  • 显卡: 多卡并行(如 2x A100 80GB 或 4x RTX 4090)
  • 场景:
    • 科研机构/大型企业(金融预测、大规模数据分析)
    • 高复杂度生成任务(创意写作、算法设计)

7. DeepSeek-R1-671B

  • CPU: 64 核以上(服务器集群)
  • 内存: 512GB+
  • 硬盘: 300GB+
  • 显卡: 多节点分布式训练(如 8x A100/H100)
  • 场景:
    • 国家级/超大规模 AI 研究(如气候建模、基因组分析)
    • 通用人工智能(AGI)探索
    •  
Reference:
https://www.53ai.com/news/finetuning/2025020418637.html

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/879089.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【python应用】Python也能使用动态链接库

前言 动态链接库(DLL)想必大家都不陌生了吧,C/C++编程经常会用到,那么,它跟我们的Python有什么关系?要说关系恐怕也就是Python是用C写的了,不过,还有一点更重要的关系,那就是Python可以调用C函数,这一点,在Pywin32中有所体现。下面我们就来详细了解下到底Python使用动…

ERP+PLM+MDM

ERP+PLM+MDM 新一代汽车数字工厂PLM+PLM+MDM集成解决方案专为汽车整车行业设计,通过整合企业业务流程和优化关键数据管理,实现了设计制造一体化。该方案以业务流程为导向,围绕整车项目研发、快速变型设计、产品配置和装配工艺设计四大业务场景,提供全面的数据管理和流程控制…

AI应用示例:用AI通过单张面部照片预测您的职业与受教育程度

AI 生成的图像 | Flux Labs AI 制作想象一下,你走进一场面试,还没开口,AI 面试官就已经根据你的脸对你做出评估。这是不是 “以貌取人 2.0”?这算是歧视吗?还是 AI 正在推动一种新的 “面相主义”(face-ism)? 最近,来自多所大学的研究人员进行了一项研究,他们声称 AI…

电脑本地部署deepseek教程

Ollama:本地大模型运行指南奇舞精选2024-04-2814,445阅读11分钟关注 智能总结 复制 重新生成 这篇文章主要介绍了本地大模型运行框架 Ollama。包括其简介、安装方法(下载安装及大模型下载)、终端对话(如显示帮助、模型信息等命令)、API 调用(generate 和 chat 两…

可能是对春节假期的一些总结

写在前面2603 字 | 总结 | 经历 | 思考 | 感触未经允许,禁止转载。 正文「我一直都应该知道,听到别人说出她的名字,我还是会心里一跳。」过年与我当初预计的完全不同。我当初的计划,春节七八天,写很多很多文章,极速推进今年年度计划的写作一项。为此还专门订阅了一个月的…

搜狗录音笔c1折腾

1.买的pdd厂家帮我整好了大部分(应该刷过固件) 2.遇到的问题就是c to c的线...它没有协商,得插电脑usb-a口上才能识别到 3.厂家提供的搜狗录音笔助手这个软件是有点小处理的不是原软件(指解锁登录,其他的没看出问题,至少软件没报毒)

task3

任务二:Smiling-Weeping-zhr/Travel-assistant 自建项目链接,有关大模型关于大模型解答旅游相关

1.4 条件分支和循环机制

程序的流程分为顺序执行、条件分支和循环三种 顺序执行是按照地址内容的顺序执行指令。 条件分支是根据条件执行任意地址的指令。 循环是指重复执行同一地址的指令。 顺序执行每执行一个指令程序计数器的值自动加1条件分支和循环中使用的跳转指令,会参照当前执行的运算结果来判…

vue3使用flv.js播放flv直播流

目前有个需求是:管理直播机有一个列表需要查看每个直播机的实时内容,所以需要在后台加这个功能。 效果:我用ffmpeg模拟推流: 如何用ffmpeg模拟推流请看我上一篇文章 网页: 如上是可以正确再网页端拉流,这个功能费了一天的时间,在这里免费分享出来。 首先安装flv.js(用n…

DeepSeep本地部署

1、浏览器搜索引擎更改 2、搜索:Ollama操作下载: 也可直接进入下载路径:https://ollama.com/download/windows ollama run deepseek-r1 本文来自博客园,作者:他还在坚持嘛,转载请注明原文链接:他还在坚持嘛 https://www.cnblogs.com/brf-test/p/18699050

Linux下使用df与du命令查看磁盘空间

1、df磁盘空间查看df可以查看一级文件夹大小、使用比例、档案系统及其挂入点。[root@oms ~]# df -Th Filesystem Type Size Used Avail Use% Mounted on /dev/vda1 ext4 40G 35G 3.1G 92% / devtmpfs devtmpfs 1.9G 0 1.9G 0% /dev tmp…