【LLM】LLM API 开发

文章目录

  • LLM API 开发
    • LLM入门基本概念
    • LLM API使用
      • 实名认证
      • 创建应用
      • 使用API
    • Prompt Engineering
    • 思考
    • 总结

参考文章
什么是提示工程(Prompt Engineering)?
ChatGPT Prompt 最佳指南一

LLM API 开发

LLM入门基本概念

  1. Prompt
    Prompt 最初是 NLP(自然语言处理)研究者为下游任务设计出来的一种任务专属的输入模板,类似于一种任务(例如:分类,聚类等)会对应一种 Prompt。在 ChatGPT 推出并获得大量应用之后,Prompt 开始被推广为给大模型的所有输入。即,我们每一次访问大模型的输入为一个 Prompt,而大模型给我们的返回结果则被称为 Completion。

  2. Temperature
    LLM 生成是具有随机性的,在模型的顶层通过选取不同预测概率的预测结果来生成最后的结果。我们一般可以通过控制 temperature 参数来控制 LLM 生成结果的随机性与创造性。

    Temperature 一般取值在 0~1 之间,当取值较低接近 0 时,预测的随机性会较低,产生更保守、可预测的文本,不太可能生成意想不到或不寻常的词。当取值较高接近 1 时,预测的随机性会较高,所有词被选择的可能性更大,会产生更有创意、多样化的文本,更有可能生成不寻常或意想不到的词。

  3. System Prompt
    System Prompt 是随着 ChatGPT API 开放并逐步得到大量使用的一个新兴概念,事实上,它并不在大模型本身训练中得到体现,而是大模型服务方为提升用户体验所设置的一种策略。

    具体来说,在使用 ChatGPT API 时,你可以设置两种 Prompt:一种是 System Prompt,该种 Prompt 内容会在整个会话过程中持久地影响模型的回复,且相比于普通 Prompt 具有更高的重要性;另一种是 User Prompt,这更偏向于我们平时提到的 Prompt,即需要模型做出回复的输入。

    我们一般设置 System Prompt 来对模型进行一些初始化设定,例如,我们可以在 System Prompt 中给模型设定我们希望它具备的人设如一个个人知识库助手等。System Prompt 一般在一个会话中仅有一个。在通过 System Prompt 设定好模型的人设或是初始设置后,我们可以通过 User Prompt 给出模型需要遵循的指令。例如,当我们需要一个幽默风趣的个人知识库助手,并向这个助手提问我今天有什么事时,可以构造如下的 Prompt:

    {
    “system prompt”: “你是一个幽默风趣的个人知识库助手,可以根据给定的知识库内容回答用户的提问,注意,你的回答风格应是幽默风趣的”,
    “user prompt”: “我今天有什么事务?”
    }
    通过如上 Prompt 的构造,我们可以让模型以幽默风趣的风格回答用户提出的问题。

LLM API使用

API 申请指引

DataWhale的API申请指南中很清楚描述了OPEN AI、文心一言、讯飞星火、智谱 GLM的API权限申请和API使用示例,大家可以移步观看。

下面小节记录了文心一言的使用过程~

实名认证

首先点击千帆大模型平台进行登录,初次登录的用户需要实名认证,这里推荐扫码登录。

创建应用

实名认证后,可以看到一下界面,点击应用接入,选择初始化的模型服务,点击确认后会生成应用相关的信息,

在这里插入图片描述

从下图中可以看到创建的应用的 API Key、Secret Key。

需要注意的是,千帆目前只有 Prompt模板、Yi-34B-Chat 和 Fuyu-8B公有云在线调用体验服务这三个服务是免费调用的,如果你想体验其他的模型服务,需要在计费管理处开通相应模型的付费服务才能体验。

在这里插入图片描述

我们将这里获取到的 API Key、Secret Key 填写至 .env 文件的 QIANFAN_AK 和 QIANFAN_SK 参数。如果你使用的是安全认证的参数校验,需要在百度智能云控制台-用户账户-安全认证页,查看 Access Key、Secret Key,并将获取到的参数相应的填写到 .env 文件的 QIANFAN_ACCESS_KEY、QIANFAN_SECRET_KEY。
( .env 文件见代码示例
在这里插入图片描述
然后执行以下代码,将密钥加载到环境变量中。

from dotenv import load_dotenv, find_dotenv# 读取本地/项目的环境变量。# find_dotenv() 寻找并定位 .env 文件的路径
# load_dotenv() 读取该 .env 文件,并将其中的环境变量加载到当前的运行环境中  
# 如果你设置的是全局的环境变量,这行代码则没有任何作用。
_ = load_dotenv(find_dotenv())

使用API

import qianfandef gen_wenxin_messages(prompt):'''构造文心模型请求参数 messages请求参数:prompt: 对应的用户提示词'''messages = [{"role": "user", "content": prompt}]return messagesdef get_completion(prompt, model="ERNIE-Bot", temperature=0.01):'''获取文心模型调用结果请求参数:prompt: 对应的提示词model: 调用的模型,默认为 ERNIE-Bot,也可以按需选择 Yi-34B-Chat 等其他模型temperature: 模型输出的温度系数,控制输出的随机程度,取值范围是 0~1.0,且不能设置为 0。温度系数越低,输出内容越一致。'''chat_comp = qianfan.ChatCompletion()message = gen_wenxin_messages(prompt)resp = chat_comp.do(messages=message, model=model,temperature = temperature,system="你是一名个人助理-小鲸鱼")return resp["result"]

调用get_completion获取大模型的回答

get_completion("你好,介绍一下你自己", model="Yi-34B-Chat")

至此,已将上手体验了LLM的API。

Prompt Engineering

提示工程(Prompt Engineering)是指通过提示(Prompt)的开发和优化,与LLM进行交互,以引导其产生所期望的结果,而无需对模型进行更新。

提示工程可以帮助研究人员提升大型语言模型在处理复杂任务时的能力,比如问答和算术推理,或者提升生成式AI模型在特定任务场景下的性能和效果。通过合理设计和使用提示工程,可以赋能大模型,获得更加符合期待的结果,使其更好地适应各种任务和应用场景。

提示工程的基础要素
由于提示工程是通过对提示进行修改来达到目标,我们首要需要了解的就是提示。提示的写法多种多样,其中有四个重要要素:

提示工程中的提示可以包含以下要素:

  • 指令:明确说明希望语言模型执行的特定任务或指令。
  • 上下文:提供外部信息或额外的上下文,以引导语言模型更好地理解和响应。
  • 输入数据:包括用户输入的内容或问题,作为模型生成输出的依据。
  • 输出指示:指定所期望的输出类型或格式。

需要注意的是,提示的具体格式取决于所需任务类型,不是所有上述要素都是必需的。根据任务的不同,您可以选择包含适当的要素来指导语言模型的行为和输出结果。

for example

  • 写清晰的说明:GPT 没有读心术,因此如果你想要一个简短的输出,可以直接告诉它在100字左右。如果你想要一个小朋友能听懂的解释,可以直接告诉它讲给10岁的小朋友听,尽量浅显易懂些。
  • 提供参考文本:GPT 比最能侃的人还能侃,回答可能会胡编乱造,可能会南辕北辙。就像一些练习册可以帮助学生在考试中做得更好一样,你可以向GPT提供参考文本,帮助它回答的更精准可靠。
    将复杂任务分解为更简单的子任务:太复杂的任务,目前的 GPT4 处理起来还有点费劲儿,出错率比较高。因此需要你把任务拆分到 GPT4 可以处理的粒度,自己再组装每一步的结果。
  • 给GPT时间“思考”:如果被问到 17 乘以 28,人们不会立即知道答案,但可以花时间算出来。同样你需要 GPT 用推理链来一步步思考,而不是立马给出一个错误的答案。
  • 使用外部工具:人之所以成为万物主宰,很大原因就是会用工具。同样,你可以通过将其他工具的输出提供给 GPT4,来补偿 GPT4 的弱点。例如,代码执行引擎可以帮助 GPT4 做数学和运行代码。
  • 系统地测试变化:如果你能够系统地评估 GPT4 的能力,那么就能逐渐优化提高它的能力了。某些情况下,对 prompt 的修改可能会在某些个别的例子上提高表现,但在更具代表性的例子上导致整体表现下降。因此,为了确保 prompt 的改变效果是正面的,需要定义一个全面的测试套件。OpenAI开源了 evals 评测工具,

思考

1、System Prompt的妙用
每次在新建chatgpt对话时,都可以先定义System Prompt,及向gpt定义用户想要的领域、回答风格、回答模版等,这样够帮助AI更准确地理解我们的需求,并给出满足我们需求的答案。

例如需要快速解决es分组查询的问题,可以先定义好chatgpt的System Prompt:
你是有经验的es开发工程师,下面将会对你请教有关es的dsl问题。请充分思考,结合es官方文档XXX后给出回答,出现不会的问题可以回答不清楚,谢谢。

在上面的System Prompt中,用户主要对LLM说明了三个特征
1、es开发工程师
2、解决有关es的dsl
3、结合es官方文档
4、出现未知问题回答不清楚

这样LLM会在Completion中给出用户制定想要的答案(起码出现幻觉的机率变低)

总结

主要了解了LLM中的基础知识,包括输入提示词prompt、temperature(模型输出的温度系数,控制输出的随机程度,取值范围是 0~1.0,且不能设置为 0。温度系数越低,输出内容越一致。)以及Prompt Engineering中常用的调优技术,如:写清晰的说明、给LLM充足的思考时间…,只要prompt写得好,LLM回答才会更快返回符合用户的答案。
本次以百度的千帆大模型为载体,体验了LLM API的使用,从代码层面了解到LLM回答问题的过程,认识到LLM的基本输入参数:prompt、model、temperature。
偷瞄了第三节内容,知识库的搭建,选用的框架是我没接触过的Chroma,嘿嘿~期待一下吧

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/636240.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

嵌入式物联网实战开发笔记-乐鑫ESP32芯片功能对比以及功能选型【doc.yotill.com】

乐鑫ESP32入门到精通项目开发参考百例下载: 链接:https://pan.baidu.com/s/1ATvRnAZvxkev-PJfd3EAPg?pwd4e33 提取码:4e33 2.1 初识 ESP32 ESP32-S3 是一款低功耗的 MCU 系统级芯片 (SoC),支持 2.4 GHz Wi-Fi 和低功耗蓝牙 (…

windows驱动开发-WDM框架(一)

在前面的文章中解释过,NT5.0之后windows确定了新的架构Windows Driver Model (WDM),在Vista之后又推出了Windows Driver Framework(WDF),这两个都属于驱动程序框架,那么它们的之间的关系是怎样的? WDF是对WDM进行的封…

【数据结构(八)下】二叉树经典习题

❣博主主页: 33的博客❣ ▶文章专栏分类: Java从入门到精通◀ 🚚我的代码仓库: 33的代码仓库🚚 🫵🫵🫵关注我带你学更多数据结构的知识 1.前言 在上一篇文章中,博主已经分享了部分二叉树的经典习题&#xf…

安居水站:水站经营秘籍:年入30万不是梦。水站创业指南。

在这个快节奏的社会里,初创企业家们总是在寻找一条明路,以在竞争激烈的市场中立足。为了帮助他们更好地实现这一目标,我根据经验决定制定一份水站经营指导手册。这份手册将详细阐述如何从零起步,如何运营,如何进行市场…

c++11 标准模板(STL)本地化库 - 平面类别(std::collate) - 定义字典序比较和字符串的散列(二)

本地化库 本地环境设施包含字符分类和字符串校对、数值、货币及日期/时间格式化和分析,以及消息取得的国际化支持。本地环境设置控制流 I/O 、正则表达式库和 C 标准库的其他组件的行为。 平面类别 定义字典序比较和字符串的散列 std::collate 类 std::collate 封…

clickhouse学习笔记04

ClickHouse高可用之ReplicatedMergeTree引擎介绍 ClickHouse高可用架构准备-环境说明和ZK搭建 RPM安装ClickHouse 上传我们的clickhouse rpm文件。 安装: 中途需要输入用户名和密码 可以不设置 直接回车。 启动: 查看状态: 查看端口是否占用…

区间图着色问题:贪心算法设计及实现

区间图着色问题:贪心算法设计及实现 1. 问题定义2. 贪心算法设计2.1 活动排序2.2 分配教室2.3 算法终止 3. 伪代码4. C语言实现5. 算法分析6. 结论7. 参考文献 在本文中,我们将探讨如何使用贪心算法解决一个特定的资源分配问题,即区间图着色问…

常用的数据结构及算法

一、数据结构 (一)线性结构:一对一。 1.可以使用数组、链表来表示。数组又分为静态数组和动态数组两种。链表常用的是单链表。 2.两种特殊的线性结构:队列和栈。其中队列是先进先出(排队),栈…

Delphi Firemonkey使用TVertScrollbox自定义列表数据

界面布局设置如下 创建一个过程添加新项目 procedure TForm1.AddItem(name: string; age: Integer); varlayout: TLayout; begin// 设置姓名标签的文本Label3.Text : name;// 设置年龄标签的文本Label4.Text : IntToStr(age);// 克隆 Layout1,并将克隆得到的对象赋值…

删除链表的中间节点

题目链接 删除链表的中间节点 题目描述 注意点 链表中节点的数目在范围 [1, 100000] 内 解答思路 快慢指针找到链表中间节点的前一个节点,慢指针每次跳一格,快指针每次跳两格,当快指针跳到链表末尾时,此时慢指针刚好到链表的…

在PostgreSQL中如何有效地批量导入大量数据,并确保数据加载过程中的性能和稳定性?

文章目录 解决方案1. 使用COPY命令2. 调整配置参数3. 禁用索引和约束4. 使用事务5. 并发导入 总结 在PostgreSQL中,批量导入大量数据是一个常见的需求,特别是在数据迁移、数据仓库填充或大数据分析等场景中。为了确保数据加载过程中的性能和稳定性&#…

【java解决线程间变量不可见性的方案】

解决线程间变量不可见性的方案 一、 背景 所有的实例变量和类变量都存储在主内存,但每个线程都有自己的工作内存,保留了主内存的共享变量的副本,线程修改的是共享变量,但是每个线程每次只能读取工作内存里的值,所以会…