LangChain:大模型框架的深度解析与应用探索

       在数字化的时代浪潮中,人工智能技术正以前所未有的速度蓬勃发展,而大模型作为其中的翘楚,以生成式对话技术逐渐成为推动行业乃至整个社会进步的核心力量。再往近一点来说,在公司,不少产品都戴上了人工智能的帽子,各种高大上人工对话界面,作为一个已经工作8年的老程序员来说,一种压力感扑面而来,这使得我不得不去接受新的东西,在学习和使用Prompt、function-call和Rag后发现了一个对AI初学者极其友好的框架——Langchain,帮助我更好更快的使用大模型。

        在接下来的文章里,我将带着大家来分析和感受LangChain的发展和应用。通过深入了解,我们可以更好地利用LangChain的优势和避免它的不足之处。

LangChain总结

面向大模型的开发框架(SDK)

        LangChain是一套被设计成易于使用的软件工具集,专门为程序员提供了使用大型模型的能力。它的主要目的是帮助程序员减少开发工作量,并且将底层的复杂和重复性工作封装起来。使用LangChain,你可以简单方便地利用这些封装好的功能来开发软件。这个框架的初衷就是让你能够更加高效地开发,并且更加轻松地使用大型模型的能力。

基于软件工程思维,要更关注接口变更

        使用这套框架确实需要一定的代码能力,因为这个框架的设计本质是基于软件工程思路的,对编程基础有一定要求。另外,大模型技术和辅助工具正处于一个初级阶段,发展时间并不长,大模型诞生也就好一年多的时间。因此,在学习这些工具时,我们最好不要过于专注于每个接口的具体用法,例如像前端框架vue对于这个功能怎么实现,这类工具不能这么学,因为大模型技术目前还处于初级阶段,未来仍会有很多变化。我们更应该关注这些框架的设计思路和模块结构,因为它们的模块大部分可能不会改变,只是接口可能会有一些细微的调整。更应该关注它的设计思路在你的实际工作中能否得到参考,通过这些思考我到底是直接拿它来用,还是参考它来设计,还是完全做一个更新的设计,这些都会在实际开发中大有裨益。

 AGI 时代软件工程的一个探索和原型,迭代速度快

        LangChain的迭代速度明显快于Semantic Kernel,几乎每天都有一个新版本发布。LangChain的发展是一个学习和探索的过程,在早期存在许多不成熟的接口,以及一些设计过于复杂的函数或流程。但是通过这么多次的迭代,几乎所有的问题都得到了修复,可以说它的成熟度是与日俱增的,目前来看,LangChain已经具备了一定的可用性的。一些模块在设计上非常成熟,具备拿来就用的,甚至在生产机使用时没问题的,而有些模块设计的还是很粗糙,例如第三方功能实现的一些模块,不建议使用的。还有一些模块在设计上没有问题,但在实际工作中可能并不是必需的,完全取决于你的需求。接下来我将带着大家来分析和感受。

与其他开发框架的对比

数据来源:GitHub Star History

        Github的平行树的对比,LangChain的欢迎程度明显还是遥遥领先的,之所以会形成这个情况,是因为LangChain最早期设计是比较简单易懂,不像Semantic-kernel是有一套宏大的理念导致整个抽象程度太高,导致它的可读性或感受上很晦涩。所以Langchain比较方便大家知道怎么用,拿来就知道好不好用,都能很直接的评估出来。

LangChain 的核心组件

模型 I/O 封装

  • LLMs:大语言模型,因为它对模型、检索都做了统一的封装,调用llama或其他大模型实现本地的Rag会更加简单。
  • Chat Models:一般基于 LLMs,但按对话结构重新封装,
  • PromptTemple:提示词模板,对提示词模板的操作给以了封装。
  • OutputParser:解析输出,模型的输出结果,给了不同的解析工具,这个是Semantic-kernel所没有的,也是它方便使用的功能之一。

数据连接封装

  • Document Loaders:如何加载各种格式文档,集结了各种格式文件的加载器。
  • Document Transformers:封装了对文档的常用操作工具,如:split, filter, translate, extract metadata, etc
  • Text Embedding Models:对不同的embedding模型做了统一的封装,不管你底层是什么,基本都是统一的接口都可以去使用。然后对各种各样的三方的向量数据库做了封装,也就是说你不用太关心,背后向量数据库到底是啥,通过Langchain的统一的接口去调用。文本向量化表示,用于检索等操作。
  • Verctorstores: (面向检索的)向量的存储,就是将向量数据库的封装后转成一个检索器
  • Retrievers: 向量的检索,一个用于检索的工具。

记忆封装

  • Memory:这里不是物理内存,从文本的角度,可以理解为“上文”、“历史记录”或者说“记忆力”的管理。对上下文的管理做了一层封装或赋予了一组工具。

架构封装

        最核心的是在架构上做了一层封装,包括了调用一系列组合的pipeline。

  • Chain:实现一个功能或者一系列顺序功能组合,pipeline顺序调用。
  • Agent:智能体架构的封装,根据用户输入,自动规划执行步骤,自动选择每步需要的工具,最终完成用户指定的功能
    • Tools:调用外部功能的函数,例如:调 google 搜索、文件 I/O、Linux Shell 等等
    • Toolkits:操作某软件的一组工具集,例如:操作 DB、操作 Gmail 等等

Callbacks

      他每个模块内部到底发生了什么,它都给了你一些Callback事件。具体可参考官网,里面有更为详细的讲解。

        可参考官网:Callbacks | 🦜️🔗 LangChain

主要用途

解决Chain的问题

        以一个Pipline (一种既定流程去调用不同组件) 的维度去看。核心解决的是一个查询(Query)进来后,可以将问题填充到提示词(Prompt)模板中去,然后通过Prompt去调用大语言模型(LLM)输出的模型结果,其结果(Json / List / Text / Code ...)可以通过Output Parser进行解析提取核心数据放到下个输入环节中,以填充新的Prompt模板,如此反复,不断提炼输出内容。

        在前面套流程之上还赋予了上下文管理(Memory)能力和连接外部数据(Retriever)能力及工具。连接外部数据最典型的方式就是以向量数据进行向量检索。核心利用了这几大模块,解决了和大模型打交道常见的功能,然后将这些功能做了统一的封装。做了统一封装的好处就是语言模型我可以换不同的模型的同时还不用该接口,整个代码不用变我就把这个大预言模型就给换了。

构成智能体(Agent)

        智能体就是经过自己反复思考,选择不同的工具,通过多步(调用工具 -> 拿到工具结果 ->分析结果 -> 选择工具)处理一个复杂任务,这样一个流程作为大模型诞生后的一个新的模式。而里面一个反复思考都是在调用大模型(LLM),这个调用流程其实就是用上面的Chain来进行封装组成的,而LangChain也对智能体架构也做了一个标准化的封装。

相关文档(以 Python 版为例)

        官方文档还是比较清晰的,Docs是LangChain自己提供的核心组件所有得文档和例子;Integrations是所有跟三方的服务和组件的连接,比如你要连接各种各种的语言模型Llama,或不同的向量数据等都在这里面可以找到;Use cases则是Langchain封装好的流程和功能,例如怎么实现Rag、怎么实现Sql查数据库、怎么实现checkout和怎么实现摘要这类的例子;更深一点比如说怎么做debugging、调试部署、评估这类相关的文档里没有的技巧和方法都在Guides里边。

主要几大核心文档

  • 功能模块:主要模块有Model I/O、Retrieval、Agents、Chains、Memory、Callbacks这类

 直通车:https://python.langchain.com/docs/get_started/introduction

  • API 文档:针对以上更细的内容,如每个函数、每个类,参数、响应的接口文档描述。

直通车:https://api.python.langchain.com/en/latest/langchain_api_reference.html

  • 三方组件集成:提供程序具有独立的langchain-{provider}包,用于改进版本控制、依赖关系管理和测试。

直通车:https://python.langchain.com/docs/integrations/platforms/

  • 官方应用案例:包含常见对接技术和例子

直通车:https://python.langchain.com/docs/use_cases

  • 调试部署等指导:https://python.langchain.com/docs/guides/debugging

小试牛刀

安装最新LangChain依赖

pip install --upgrade langchain
pip install --upgrade langchain-openai # v0.1.0新增的底包
pip install qianfan #安装文言千帆模型Api

OpenAI vs Langchain

        接下来会用以下这两个例子对比Langchain的优势。

多轮对话实现

OpenAI

        原生的Openai通过一个json数组,每一轮都一个任务一个content来去表示一个对话上下文。


# 加载 .env 文件到环境变量
from dotenv import load_dotenv, find_dotenv
from openai import OpenAI_ = load_dotenv(find_dotenv())# 初始化 OpenAI 服务。会自动从环境变量加载 OPENAI_API_KEY 和 OPENAI_BASE_URL
client = OpenAI()# 消息格式
messages = [{"role": "system","content": "你是AI助手小京。"},{"role": "human","content": "我是Csdn的一名博主,我叫Muller"},{"role": "assistant","content": "欢迎!"},{"role": "user","content": "我是谁?"},]# 调用 GPT-3.5
chat_completion = client.chat.completions.create(model="gpt-3.5-turbo",messages=messages
)# 输出回复
print(chat_completion.choices[0].message.content)
# 您自己告诉我您是CSDN的博主Muller。
Langchian

        那么在langchain的框架下,可以通过它定义的结构来去表示一个对话。然后呢我们还是把这个对话通过invoke接口来传给大模型。

# 加载 .env 到环境变量
from dotenv import load_dotenv, find_dotenv
_ = load_dotenv(find_dotenv())from langchain_openai import ChatOpenAIllm = ChatOpenAI()  # 默认是gpt-3.5-turbofrom langchain.schema import (AIMessage, #等价于OpenAI接口中的assistant roleHumanMessage, #等价于OpenAI接口中的user roleSystemMessage #等价于OpenAI接口中的system role
)
messages = [SystemMessage(content="从现在开始你叫AI助手-小京。"),HumanMessage(content="我是Csdn的一名博主,我叫Muller"),AIMessage(content="欢迎!"),HumanMessage(content="我是谁")
]
response = llm.invoke(messages)
print(response.content)#你是Muller,一名CSDN的博主。

Langchains实现会更加的简洁,且可以轻松实现一个Pipline。

国产模型调用

OpenAi
import json
import requests
import os# 通过鉴权接口获取 access token
def get_access_token():"""使用 AK,SK 生成鉴权签名(Access Token):return: access_token,或是None(如果错误)"""url = "https://aip.baidubce.com/oauth/2.0/token"params = {"grant_type": "client_credentials","client_id": "ERNIE_CLIENT_ID","client_secret": "ERNIE_CLIENT_SECRET"}return str(requests.post(url, params=params).json().get("access_token"))# 调用文心4.0对话接口
def get_completion_ernie(prompt):url = "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions_pro?access_token=" + get_access_token()payload = json.dumps({"messages": [{"role": "user","content": prompt}]})headers = {'Content-Type': 'application/json'}response = requests.request("POST", url, headers=headers, data=payload).json()return response["result"]class RAG_Bot:def __init__(self,  llm_api, n_results=2):self.llm_api = llm_apiself.n_results = n_resultsdef chat(self, user_query):# 3. 调用 LLMresponse = self.llm_api(user_query)return response# 创建一个RAG机器人
new_bot = RAG_Bot(llm_api=get_completion_ernie
)user_query = "你是谁?"response = new_bot.chat(user_query)print(response)
Langchain
# 其它模型分装在 langchain_community 底包中
from langchain_community.chat_models import QianfanChatEndpoint
from langchain_core.messages import HumanMessage
import osllm = QianfanChatEndpoint(qianfan_ak=os.getenv('ERNIE_CLIENT_ID'),qianfan_sk=os.getenv('ERNIE_CLIENT_SECRET')
)messages = [HumanMessage(content="你是谁")
]ret = llm.invoke(messages)print(ret.content)

通过模型封装,实现不同模型的统一接口调用

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/690835.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

maven mirrorOf的作用

在工作中遇到了一个问题导致依赖下载不了,最后发现是mirror的问题,决定好好去看一下mirror的配置,以及mirrorOf的作用,以前都是直接复制过来使用,看了之后才明白什么意思。 过程 如果你设置了镜像,镜像会匹…

Doris【部署 01】Linux部署MPP数据库Doris稳定版(下载+安装+连接+测试)

本次安装测试的为稳定版2.0.8官方文档 https://doris.apache.org/zh-CN/docs/2.0/get-starting/quick-start 这个简短的指南将告诉你如何下载 Doris 最新稳定版本,在单节点上安装并运行它,包括创建数据库、数据表、导入数据及查询等。 Linux部署稳定版Do…

蓝桥杯单片机之模块代码《多样点灯方式》

过往历程 历程1:秒表 历程2:按键显示时钟 历程3:列矩阵按键显示时钟 历程4:行矩阵按键显示时钟 历程5:新DS1302 历程6:小数点精确后两位ds18b20 历程7:35定时器测量频率 历程8&#xff…

基于fastapi sqladmin开发,实现可动态配置admin

1. 功能介绍: 1. 支持动态创建表、类,属性,唯一约束、外键,索引,关系,无需写代码,快速创建业务对象; 2. 支持配置admin显示参数,支持sqladmin原生参数设置,动…

Android 实现背景图片不被拉伸的效果 9-patch图片 .9图

今天碰到个需求,要求不同手机分辨率背景照片不能被拉伸,除了调用系统方法计算当前屏幕大小这个方法外还有一个就是9-patch图片,可以实现除了icon剩下的部位被缩放。 方法:资源文件右击找到9-patch,转为XXX.9.png照片 …

手把手微调大模型【附:一镜到底视频教程】

前言 近期有很多小伙伴来问是否有大模型微调教程,其实目前网上有很多教程,但是据了解,由于网上教程质量参差不齐,导致很多小伙伴尤其是初学者,一坑未出又入一坑,有种从入门到放弃的感觉。于是乎&#xff0…

Golang | Leetcode Golang题解之第75题颜色分类

题目&#xff1a; 题解&#xff1a; func sortColors(nums []int) {p0, p2 : 0, len(nums)-1for i : 0; i < p2; i {for ; i < p2 && nums[i] 2; p2-- {nums[i], nums[p2] nums[p2], nums[i]}if nums[i] 0 {nums[i], nums[p0] nums[p0], nums[i]p0}} }

图论(洛谷刷题)

目录 前言&#xff1a; 题单&#xff1a; P3386 【模板】二分图最大匹配 P1525 [NOIP2010 提高组] 关押罪犯 P3385 【模板】负环 P3371 【模板】单源最短路径&#xff08;弱化版&#xff09; SPFA写法 Dij写法&#xff1a; P3385 【模板】负环 P5960 【模板】差分约束…

Kubernetes学习-深入Pod篇(一) 创建Pod,Pod配置文件详解

&#x1f3f7;️个人主页&#xff1a;牵着猫散步的鼠鼠 &#x1f3f7;️系列专栏&#xff1a;Kubernetes渐进式学习-专栏 &#x1f3f7;️个人学习笔记&#xff0c;若有缺误&#xff0c;欢迎评论区指正 1.前言 我们在前面的文章讲解了Kubernetes的核心概念和服务部署&#x…

JavaScript之数据类型(3)——object进阶

前言&#xff1a; 利用基础知识来构建对象会发现十分复杂&#xff0c;我们可以结合其他的知识点来为我们object的构建进行优化。 <1>工厂法&#xff1a; 基本格式&#xff1a; function creatObject(属性值1,属性值2,属性值3,...,属性值n) {var 对象名 new Object();对…

FY-SA-20237·8-SimplyInfinite

Translated from the Scientific American, July/August 2023 issue. Simply Infinite &#xff08;简单无限&#xff09; New “einstein” tile intrigues the math world. 翻译&#xff1a;新"爱因斯坦"瓷砖引起数学界的兴趣。 Paragraph 1 David Smith, a mat…

Linux常见指令2️⃣

目录 cp指令&#xff08;重要&#xff09; mv指令&#xff08;重要&#xff09; cat、tac head、tail指令&#xff08;重要&#xff09; 知识点 时间相关的指令 知识点&#xff1a; Cal指令 grep 指令 zip/unzip指令 知识点 cp指令&#xff08;重要&#xff09; 语法…