【AIGC】关于Prompt你必须知道的特性

代码和数据:https://github.com/tonyzhaozh/few-shot-learning

一、实践验证的大模型的特性

1. 大模型的偏差

示例:(文本的情感分析:一句话->P(积极)或者N(消极)

Input: I hate this movie. Sentiment: Negative
Input: I love this movie. Sentiment: Positive

如果不做调整,对于无意义输入,比如“N/A”或者“”Nothing,LLM回答的概率如下:

p("Positive" | "Input: N/A Sentiment:") = 0.9
p("Negative" | "Input: N/A Sentiment:") = 0.1

因为LLM的训练语料里可能更多积极的东西,所以LLM更倾向于输出P(这就是bias的来源)。期望的是P50%, N50%。

2. 大模型偏差形成的原因

大模型的bias主要有以下几种原因:

  • 多数类标签偏差(样本):大模型在预测结果时会偏向出现频率较高的答案,即偏向与prompt中出现频率较高的标签。例如,在文本分类任务中,如果一个类别的样本数量比其他类别多,模型会更倾向于预测这个多数类别,导致其他类别的准确率下降。
  • 最近性偏差(样本):大模型会倾向于重复出现在prompt末尾的答案。当prompt末尾出现多个相同的答案时,模型会更倾向于预测这个答案。这种偏差可以比多数类标签偏差更加影响预测结果。
  • 常见词偏差(预训练语料):大模型在预测结果时更倾向于输出在预训练数据中常见的词汇。这有助于解释为什么标签名称的选择很重要。

以上是导致大模型bias的主要原因,这些偏差会使得模型在few-shot学习中的准确率变化较大,但通过进行上下文校准可以减少这些偏差并提高模型的准确率。

多数类标签偏差,最近性偏差:
在这里插入图片描述

3. prompt的组成

prompt由三个组成部分组成:

  • 格式(format)
  • 一组训练样例(examples)
  • 这些样例的排列顺序(permutation/ordering)

可通过改变着这三个部分,消除偏差

4. 实验和实验数据

### 4.1 SST-2
在这里插入图片描述

5. 现有事实

5.1 样例数和模型大小

在这里插入图片描述
看红色区域,结论:

  1. 准确性的方差不会因为于更多的数据和更大的模型而减少。一定程度后,在prompt中添加更多的训练示例并不一定会降低方差。
  2. 此外,添加更多的训练示例有时会影响准确性(例如,DBPedia 0到1-shot的平均准确性从36.0%下降到25.9%)。

遗留:方差的出现是因为temperature没设置成0还是选取的样例的差异导致?

5.2 样例顺序

基础:箱线图怎么看?
在这里插入图片描述
箱子大小:四分位数间距(IQR)

在这里插入图片描述
使用一个固定的prompt格式,只选择不同的随机训练示例集。对于每一组训练示例,评估所有可能的排列的准确性,下图为SST-2数据4-shot的结果:在这里插入图片描述
一共抽了10组数据,结论:

  1. 不同样例的选择,对结果的影响也大(可能同种样例选得过多)
  2. 不同的排列,对结果的影响特别大

样例顺序的例子:
在这里插入图片描述

5.3 prompt格式

保持训练示例和排列集的固定不变,但改变prompt格式, SST-2数据集,用下面15个format,
在这里插入图片描述
其中10个format的表现:
在这里插入图片描述
仍然时4-shot不同的训练集得到的箱线图。

结论:

  1. 其中一些格式平均比其他格式好
  2. 所有的格式在不同的训练集之间仍然存在很大的差异

遗留问题

  1. 生成问题,不用限定最大值吗?在这里插入图片描述

二、解决方案

可同时解决上面三种原因引起的偏差。

首先,LLM可以输出候选token以及其对应概率(非归一化的,openAI一次最多只能给出top的5个,但可以想办法让它给出更多,见后面章节):
在这里插入图片描述
假设候选标签为A、B、C、D,则上述方法调用并归一化后可得到:
p ^ = p ( [ A B C D ] ) = [ p A p B p C p D ] \hat{p}=p(\left[ \begin{matrix} A\\ B\\ C \\ D \end{matrix} \right])=\left[ \begin{matrix} p_A\\ p_B\\ p_C \\ p_D \end{matrix} \right] p^=p( ABCD )= pApBpCpD
求解如下 W , b W,b W,b使得无意义输入(比如“N/A”或者“Nothing”)的候选集能有相等的概率:
q ^ = W p ^ + b \hat{q}=W\hat{p}+b q^=Wp^+b

通常 W W W取对角矩阵,有两种求解方法,针对不同问题效果不一样:

  1. W = d i a g ( p ) − 1 , b = 0 W=diag(p)^{-1},b=0 W=diag(p)1,b=0,对分类问题准确率更高
  2. W = I , b = − p ^ W=I,b=-\hat{p} W=I,b=p^,对生成问题准确率更高

如何获取超过限制的token概率?

由于这个参数openAI输出候选token以及其对应概率的最大限制是5,当我们想要更多token概率的时候,需要怎么办呢?该文章代码中提供了一种实现:

# 分类问题中
def get_label_probs(params, raw_resp, train_sentences, train_labels, test_sentences):"""Obtain model's label probability for each of the test examples. The returned prob is NOT normalized"""num_classes = len(params['label_dict'])approx = params['approx']assert len(raw_resp) == len(test_sentences)# Fill in the labels that is in the top k proball_label_probs = []all_missing_positions = []for i, ans in enumerate(raw_resp):top_logprobs = ans['logprobs']['top_logprobs'][0]  # [0] since we only ask for complete one more tokenlabel_probs = [0] * len(params['label_dict'].keys())for j, label_list in params['label_dict'].items():all_found = Truefor label in label_list:  # each possible label correspond to the same classlabel = " " + label  # notice prompt does not have space after 'A:'if label in top_logprobs:label_probs[j] += np.exp(top_logprobs[label])else:all_found = Falseif not all_found:position = (i, j) # (which test example, which label)all_missing_positions.append(position)all_label_probs.append(label_probs)all_label_probs = np.array(all_label_probs) # prob not normalized# Fill in the label probs that are NOT in top k probs, by asking the model to rate perplexity# This helps a lot in zero shot as most labels wil not be in Top 100 tokens returned by LMif (not approx) and (len(all_missing_positions) > 0):print(f"Missing probs: {len(all_missing_positions)}/{len(raw_resp) * num_classes}")all_additional_prompts = []num_prompts_each = []for position in all_missing_positions:which_sentence, which_label = positiontest_sentence = test_sentences[which_sentence]label_list = params['label_dict'][which_label]for label in label_list:prompt = construct_prompt(params, train_sentences, train_labels, test_sentence)prompt += " " + labelall_additional_prompts.append(prompt)num_prompts_each.append(len(label_list))# chunk the prompts and feed into modelchunked_prompts = list(chunks(all_additional_prompts, chunk_size_helper(params)))all_probs = []for chunk_id, chunk in enumerate(chunked_prompts):resp = complete(chunk, 0, params['model'], echo=True, num_log_probs=1)for ans in resp['choices']:prob = np.exp(ans['logprobs']['token_logprobs'][-1])all_probs.append(prob)assert sum(num_prompts_each) == len(all_probs)assert len(num_prompts_each) == len(all_missing_positions)# fill in corresponding entries in all_label_probsfor index, num in enumerate(num_prompts_each):probs = []while num > 0:probs.append(all_probs.pop(0))num -= 1prob = np.sum(probs)i, j = all_missing_positions[index]all_label_probs[i][j] = probassert len(all_probs) == 0, "all should be popped"assert (all_label_probs > 0).all(), "all should be populated with non-zero value"return all_label_probs # NOT NORMALIZED

其他

论文作者在最后说,后面的工作会研究这种方案对比SFT有何优劣,这也是我比较关注问题,期待他的后续研究。

参考

openai.Completion.create 接口参数说明
官方文档
OpenAI Completions 解码参数详解

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/229454.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

JVM GC算法

一, 垃圾回收分类: 按线程数分,可以分为串行垃圾回收器和并行垃圾回收器。 按工作模式分,可以分为并发垃圾回收器和独占式垃圾回收器 按碎片处理方式分,可以分为压缩式垃圾回收器和非压缩式垃圾回收器按工作的内存区间分,又可分为…

GAN:GAN论文学习

论文:https://arxiv.org/pdf/1406.2661.pdf 发表:2014 一、GAN简介:Generative Adversarial Network GAN是由Ian Goodfellow于2014年提出,GAN:全名叫做生成对抗网络。GAN的目的就是无中生有,以假乱真。 …

法线制作神器crazybump 和 Normal Map Generator

UE4系列文章目录 文章目录 UE4系列文章目录前言一、crazybump是什么?二、Normal Map Generator是什么? 前言 我们在使用UE4、UE5制作材质时,经常会遇到使用法线图。使用深度图生成法线图,一般会使用photoShop等软件,对…

untiy 配置iis服务器来打开webgl

最简单的方法是不需要配置服务器,打包的时候直接build and run,但是有时候如果我们需要调整js的内容,会很不方便,所以配置一个iis服务器还是很有必要的 首先要开启iis服务 控制面板,查看方式选类型,点击程…

【0基础学Java第七课】-- 类和对象01

7. 类和对象 7.1 面向对象的初步认知7.1.1 什么是面向对象7.1.2 面向对象与面向过程 7.2 类定义和使用7.2.1 简单认识类7.2.2 类的定义格式7.2.3 定义一个狗类7.2.4 定义一个学生类 7.3 类的实例化7.3.1 什么是实列化7.3.2 引用只能指向对象,且不能同时指向多个对象…

孩子写作业用的护眼灯哪种好?适合考研的护眼台灯推荐

随着现在小孩子的近视率越来越高,全国中小学生近视比率占大多数,许多家长也开始为孩子的健康成长而担忧,这时很多家长就会选择护眼台灯来为孩子保驾护航。但面对市面上五花八门的台灯品牌,各式各样的台灯许多家长却乱了阵脚&#…

Docker监控Weave Scope的安装和使用

1.本地安装Weave Scope 1)创建文件夹。 mkdir /usr/local/bin/scope 2)从本地上传文件。 rz scope.bin以资源形式已上传到文章开篇。 3)修改scope.bin文件为可执行文件。 chmod 755 /usr/local/bin/scope/scope.bin 4)执行sco…

HTML5语法总结大全(持续更新中~)

参考书籍: 《HTML与CSS3基础教程》 参考视频: HTML5完整教学通俗易懂 2023新版前端Web开发HTML5CSS3移动web视频教程,前端web入门首选黑马程序员 参考网站: w3school 文章目录 零.开发环境准备1.需要的工具2.Vscode所需要插件3.其…

重工业ERP包含哪些模块?能为企业带来哪些优势

化工、五金、重型机械制造等重工业行业的经营管理模式存在明显的差别化,企业内部的盘点、发货、接单、报价、委外、排产、派工单、工艺、品检等各业务数据的实时和准确共享有利于企业清晰掌握运作情况,及时制定经营策略,提高对市场变化的反应…

Linux处理系统常见命令

目录 1 sudo 1.1 介绍 1.2 配合 2 ifconfig与ping 2.1 ifconfig 2.2 ping 3 kill 4 apt-get 4.1 介绍 4.2 配合 5 history 6 clear 7 env 1 sudo 1.1 介绍 给这条命令最高权限,比如 sudo cp something.txt /usr/bin/something.txt 1…

HAL库常用函数汇总【不间断更新】

1,系统函数 HAL_Delay 原型:void HAL_Delay(uint32_t Delay); 作用:利用滴答定时器生成的系统延迟函数 参数: Delay:延迟时间,单位是ms 返回值:无 示例代码: HAL_Delay(50);//延迟50…

统信UOS上使用localsend传输文件

原文链接:统信UOS上使用localsend传输文件及文件夹方法 hello,大家好,今天带给大家一个全新的主题:在统信UOS上如何高效使用 localsend 软件进行文件和文件夹的传输。这篇文章将为您提供详细的指导和操作步骤,让您能够…