目录
- 将Tuple 或者其他格式的 messages转化为ChatPromptTemplate , 作为调用大模型的输入(以LCEL 的方式)
- 方便对messages的占位符做替换
- 参考资料
用法
将Tuple 或者其他格式的 messages转化为ChatPromptTemplate , 作为调用大模型的输入(以LCEL 的方式)
例子
dataset_str ="xxxxx"
message_history = [SystemMessage(content=f"数据集data:{dataset_str},数据集以字符串形式呈现"),HumanMessage(content="请用孙悟空算法处理这个数据集")]chat_template = ChatPromptTemplate.from_messages(message_history)chain = final_prompt | llm
chain.invoke( )
方便对messages的占位符做替换
from langchain_core.prompts import ChatPromptTemplate
from ali_llm import create_llmchat_template = ChatPromptTemplate.from_messages([("system", "你是一个有帮助的AI机器人,你的名字是{name}。"),("human", "{user_input}"),]
)messages = chat_template.format_messages(name="小明", user_input="你叫什么名字?")
def create_llm() -> ChatOpenAI:"""创建并返回配置好的大模型实例"""return ChatOpenAI(api_key=os.getenv("DASHSCOPE_API_KEY") or "your_api_key_here",base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",model="qwen2.5-math-7b-instruct")
llm = create_llm()
response = llm.invoke(messages)
print(response.content)