- LangChain官方示例教程(Build a Simple LLM Application):https://python.langchain.com/docs/tutorials/llm_chain/
pip install langchain# 接入ollama本地大模型
pip install langchian-ollama
# 接入兼容OpenAI接口的国产大模型
pip install langchain-openai
提示词
输入
- 提示词主要有三种角色,LangChain有相应的Message类
from langchain_core.messages import SystemMessage, HumanMessage, AIMessage# 原始写法
messages = [{"role": "system", "content": "将下面的内容翻译成 英语"},{"role": "user", "content": "你好,吃了吗?"},{"role": "assistant", "content": "Hello, have you eaten yet?"},
]# 使用消息类
messages = [SystemMessage(content="将下面的内容翻译成 英语"),HumanMessage(content="你好,吃了吗?"),AIMessage(content="Hello, have you eaten yet?"),
]# 另一种写法
messages = [("system", "将下面的内容翻译成 英语"),("human", "你好,吃了吗?"),("ai", "Hello, have you eaten yet?"),
]
from langchain_core.messages import SystemMessage, HumanMessage, AIMessagemessage = AIMessage(content="Hello, have you eaten yet?")
# 以下两个方法,SystemMessage、HumanMessage、AIMessage均适用# 打印输出
message.pretty_print()
# Message继承Pydantic,可以使用Pydantic方法
print(message.model_dump_json())
模板
from langchain_core.prompts import ChatPromptTemplate# 输入
inputs = {"language": "英语", "text": "你好,吃了吗?"}# 定义模板
template = ChatPromptTemplate([("system", "将下面的内容翻译成 {language} "), ("human", "{text}")]
)# 填充模板
result = template.invoke(inputs)
# result结果如下:
# messages = [
# SystemMessage(content="将下面的内容翻译成 英语", additional_kwargs={}, response_metadata={}),
# HumanMessage(content="你好,吃了吗?", additional_kwargs={}, response_metadata={}),
# ]
接入大模型
实例化大模型
- 详情看之前的文档:LangChain接入本地/国产大模型
- ollama本地大模型
from langchain_ollama import ChatOllama# ollama大模型
llm = ChatOllama(base_url="http://localhost:11434", model="qwen2.5:latest")
from langchain_openai import ChatOpenAI# 兼容OpenAI接口的国产大模型(如:阿里云、火山、腾讯云等)
llm = ChatOpenAI(openai_api_base="各个大平台兼容OpenAI的地址",openai_api_key="xxx-xxx", model_name="模型名称/endpoint等"
)
from langchain_ollama import ChatOllama
from langchain_core.messages import HumanMessage# ollama大模型
llm = ChatOllama(base_url="http://localhost:11434", model="qwen2.5:latest")
# 提示词
messages = [HumanMessage(content="你好,吃了吗?")]result = llm.invoke(messages)
主线(模板+大模型)
from langchain_ollama import ChatOllama
from langchain_core.prompts import ChatPromptTemplate# 输入
inputs = {"language": "英语", "text": "你好,吃了吗?"}# 模板
template = ChatPromptTemplate([("system", "将下面的内容翻译成 {language} "), ("human", "{text}")]
)# 大模型
llm = ChatOllama(base_url="http://localhost:11434", model="qwen2.5:latest")# 调用
# result = template.invoke(inputs)
# result = llm.invoke(result)# LangChain写法
chain = template | llm
result = chain.invoke(inputs)
输出转换
输出转换器
from langchain_core.output_parsers import StrOutputParser, JsonOutputParser
from langchain_core.messages import AIMessage# 模拟大模型返回的文本消息
message = AIMessage(content='{"name": "Alice", "age": 30}')# 字符串输出解析器
str_parser = StrOutputParser()
result = str_parser.invoke(message)
print(type(result)) # <class 'str'>
print(result) # {"name": "Alice", "age": 30}# Json输出解析器(代码中呈现为字典)
json_parser = JsonOutputParser()
result = json_parser.invoke(message)
print(type(result)) # <class 'dict'>
print(result) # {'name': 'Alice', 'age': 30}
主线(模板+大模型+输出)
from langchain_ollama import ChatOllama
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser# 输入
inputs = {"language": "英语", "text": "你好,吃了吗?"}# 模板
template = ChatPromptTemplate([("system", "将下面的内容翻译成 {language} "), ("human", "{text}")]
)
# 大模型
llm = ChatOllama(base_url="http://localhost:11434", model="qwen2.5:latest")
# 输出转换器
parser = StrOutputParser()# 调用
# result = template.invoke(inputs)
# result = llm.invoke(result)
# result = parser.invoke(result)# LangChain写法
chain = template | llm | parser
result = chain.invoke(inputs)
其他补充
模板
from langchain_core.prompts import ChatPromptTemplatetemplate = ChatPromptTemplate([("system", "你是导游,回答用户提出的问题"), ("placeholder", "{conversation}")]
)inputs = {"conversation": [("human", "福州"),("ai", "福州是一个....."),("human", "什么季节去合适?"),],
}# 填充模板
messages = template.invoke(inputs)
# messages = [
# SystemMessage(content="你是导游,回答用户提出的问题", additional_kwargs={}, response_metadata={}),
# HumanMessage(content="福州", additional_kwargs={}, response_metadata={}),
# AIMessage(content="福州是一个.....", additional_kwargs={}, response_metadata={}),
# HumanMessage(content="什么季节去合适?", additional_kwargs={}, response_metadata={}),
# ]
from langchain_core.prompts import ChatPromptTemplatetemplate = ChatPromptTemplate([("system", "你是{role},回答用户提出的问题"), ("placeholder", "{conversation}")]
)inputs = {"role": "导游","conversation": [("human", "福州"),("ai", "福州是一个....."),("human", "什么季节去合适?"),],
}messages = template.invoke(inputs)