解锁智能未来:用Ollama开启你的本地AI之旅

 Ollama是一个用于在本地运行大型语言模型(LLM)的开源框架。它旨在简化在Docker容器中部署LLM的过程,使得管理和运行这些模型变得更加容易。Ollama提供了类似OpenAI的API接口和聊天界面,可以非常方便地部署最新版本的GPT模型并通过接口使用。此外,Ollama还支持热加载模型文件,用户无需重新启动即可切换不同的模型。

参考资料:

官网:GitHub - ollama/ollama: Get up and running with Llama 2, Mistral, Gemma, and other large language models.

 介绍文章:

从22K star的超强工具:Ollama,一条命令在本地跑 Llama2 - 知乎

最简步骤:

下载和安装:

curl https://ollama.ai/install.sh | sh

 运行例子:

ollama run phi
# ollama run llama 

phi更小,更方便测试。然后就会进入交互对话的界面了,比如:

ollama run phi

>>> 你好
 Hello!  How can I assist you today?


>>>  中国首都是哪里?
 Beijing is the capital city of China and it

ollama详细安装步骤:

初始安装

初步尝试了一下,在本地和AIStudio安装,执行:

curl https://ollama.ai/install.sh | sh

本地显示一个进度条,速度特别慢,估计要2个小时。快慢取决于网速,最终测试安装估计用了4-6个小时。

AIStudio直接在第一步就被拒了,直接报curl Empty reply from server。另Ollama需要pytorch,所以在AIStudio里最终是不适配的。

运行phi模型

phi模型只有1.7G,下载速度也比较快,大约几分钟就下好了。

运行和输出:

ollama run phi
pulling manifest 
pulling 04778965089b... 100% ▕███████████████████▏ 1.6 GB                         
pulling 7908abcab772... 100% ▕███████████████████▏ 1.0 KB                         
pulling 774a15e6f1e5... 100% ▕███████████████████▏   77 B                         
pulling 3188becd6bae... 100% ▕███████████████████▏  132 B                         
pulling 0b8127ddf5ee... 100% ▕███████████████████▏   42 B                         
pulling 4ce4b16d33a3... 100% ▕███████████████████▏  555 B                         
verifying sha256 digest 
writing manifest 
removing any unused layers 
success 
>>> 你好Hello!  How can I assist you today?>>>  中国首都是哪里? Beijing is the capital city of China and it

总结:

Ollama是一个强大的工具,适用于希望在本地环境中探索和使用大型语言模型的用户,特别是那些对AI技术有深入兴趣和需求的专业人士。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/618483.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

SMS垃圾短信识别项目

注意:本文引用自专业人工智能社区Venus AI 更多AI知识请参考原站 ([www.aideeplearning.cn]) 项目背景 随着数字通信的快速发展,垃圾短信成为了一个普遍而烦人的问题。这些不请自来的消息不仅打扰了我们的日常生活,…

一文了解LangChain的记忆模块(理论实战+细节)

大多数LLM应用程序都有一个会话接口。会话的一个重要组成部分是能够参考会话早期的信息(上文信息)。这种存储过去互动信息的能力就称为“记忆(Memory)”。LangChain提供了许多用于向系统添加Memory的封装。 目前 LangChain 中大多…

阿里云优惠口令最新 2024

2024年阿里云域名优惠口令,com域名续费优惠口令“com批量注册更享优惠”,cn域名续费优惠口令“cn注册多个价格更优”,cn域名注册优惠口令“互联网上的中国标识”,阿里云优惠口令是域名专属的优惠码,可用于域名注册、续…

并发编程之ThreadLocal使用及原理

ThreadLocal主要是为了解决线程安全性问题的 非线程安全举例 public class ThreadLocalDemo {// 非线程安全的private static final SimpleDateFormat sdf new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");public static Date parse(String strDate) throws ParseExc…

JavaScript(七)-高级技巧篇

文章目录 深浅拷贝浅拷贝深拷贝 异常处理thorw抛异常try/catch捕获异常debugger 处理thisthis指向改变this 性能优化防抖lodash实现防抖手写防抖函数 节流 - throttle 深浅拷贝 浅拷贝 深拷贝 深拷贝有三种方式 通过递归实现深拷贝 一定先写数组再写对象 lodash/cloneDeep …

SpringBoot+FreeMaker

目录 1.FreeMarker说明2.SpringBootFreeMarker快速搭建Pom文件application.properties文件Controller文件目录结构 3.FreeMarker数据类型3.1.布尔类型3.2.数值类型3.3.字符串类型3.4.日期类型3.5.空值类型3.6.sequence类型3.7.hash类型 4.FreeMarker指令assign自定义变量指令if…

解放双手,批量绕过403

将dirsearch扫描出来的结果复制到url.txt,如下所示 url.txt [21:18:16] 502 - 0B - /var/log/exception.log [21:18:21] 502 - 0B - /WEB-INF/jetty-env.xml [21:18:22] 502 - 0B - /WEB-INF/weblogic.xml [21:18:27] 502 - 0B - /wp-json/wp/v2/u…

【信号与系统 - 8】取样定理

1 定义 取样处理就是对连续信号的离散化处理 p ( t ) p(t) p(t) 是开关函数 f s ( t ) f ( t ) ⋅ p ( t ) f_s(t)f(t)\cdot p(t) fs​(t)f(t)⋅p(t) 当 p ( t ) p(t) p(t) 为周期矩形函数时 该取样为均匀抽样,周期为 T s T_s Ts​,则取样角频率为&…

一种驱动器的功能安全架构介绍

下图提供了驱动器实现安全功能的架构 具有如下特点: 1.通用基于总线或者非总线的架构。可以实现ethercat的FSOE,profinet的profisafe,或者伺服本体安全DIO现实安全功能。 2.基于1oo2D架构,安全等级可以达到sil3。 3.高可用性。单…

keil无法查看外设寄存器(生成SFR文件)

1.前言 自从更新了keil,用的是越来越不顺手了,一会是cannot evaluate,一会是与强制与cubemx强制联系了,这次也是的(地铁,老人,手机)折腾了一下总是搞好了(网上的解法只能…

Google最新论文: 复杂的 Prompt 如何更好的调试?

本文介绍了Sequence Salience,这是一个专为调试复杂的大模型提示而设计的系统。该系统利用广泛使用的显著性方法,支持文本分类和单标记预测,并将其扩展到可处理长文本的调试系统。现有的工具往往不足以处理长文本或复杂提示的调试需求。尽管存…

InternlM2

第一次作业 基础作业 进阶作业 1. hugging face下载 2. 部署 首先,从github上git clone仓库 https://github.com/InternLM/InternLM-XComposer.git然后里面的指引安装环境