概述:LangChain : LLM
(大语言模型)编程框架
基本介绍:LangChain
LangChain
就是一个LLM
(大语言模型)编程框架
你想开发一个基于
LLM
应用,需要什么组件它都有,直接使用就行;
甚至针对常规的应用流程,它利用链(LangChain中Chain的由来)这个概念已经内置标准化方案了。
本文我们从新兴的大语言模型(LLM)技术栈的角度来看看为何它的理念这么受欢迎。
- 其官方的定义
LangChain是一个基于语言模型开发应用程序的框架。它可以实现以下应用程序:
- 数据感知:将语言模型连接到其他数据源
- 自主性:允许语言模型与其环境进行交互
LangChain
的主要价值在于:
- 组件化:为使用语言模型提供抽象层,以及每个抽象层的一组实现。组件是模块化且易于使用的,无论您是否使用LangChain框架的其余部分。
- 现成的链:结构化的组件集合,用于完成特定的高级任务现成的链使得入门变得容易。对于更复杂的应用程序和微妙的用例,组件化使得定制现有链或构建新链变得更容易。
新兴 LLM 技术栈
- 大语言模型技术栈由4个主要部分组成:
- 数据预处理流程(data preprocessing pipeline)
- 嵌入端点(embeddings endpoint )+向量存储(vector store)
- LLM 终端(LLM endpoints)
- LLM 编程框架(LLM programming framework
Ollama与LangChain的关系
Ollama
与LangChain
之间的关系是相互集成和协同工作的。
- Ollama: LLM私有化部署工具
作为一个开源的大型语言模型(LLM)服务工具,它允许用户在本地快速运行大模型,如Llama 2等。
- LangChain:LLM编程框架
作为一个LLM编程框架,旨在帮助开发人员简化构建高级语言模型应用程序的过程,提供工具、组件和接口来管理与语言模型的交互,并将多个组件链接在一起。
-
具体来说,Ollama提供了一种无缝本地运行开源LLM的方式,而LangChain提供了将模型灵活集成到应用程序中的框架。
-
LangChain广泛支持包括Ollama在内的各种聊天模型,并为链式操作提供了LangChain Expression Language。
-
通过LangChain,可以轻松地将Ollama模型集成到应用程序中,利用Ollama的强大功能进行文本处理和生成。
-
在技术层面,
LangChain
通过langchain-ollama
包提供了与Ollama
模型的集成,使得开发者可以在Python环境中方便地使用Ollama模型。 -
开发者可以通过安装langchain-ollama包来实现LangChain与Ollama的集成,并通过LangChain的API来调用Ollama模型生成响应。
-
此外,LangChain还支持更复杂的操作,比如流式响应和使用提示模板。
-
总结来说,Ollama与LangChain的关系是Ollama作为本地运行的大型语言模型工具,而LangChain作为框架,两者结合可以为用户提供一个强大的本地部署和使用大模型的解决方案