论文笔记--PTR: Prompt Tuning with Rules for Text Classification
- 1. 文章简介
- 2. 文章概括
- 3 文章重点技术
- 3.1 Pre-training & Fine-tuning & Prompt-based Fine Tuning
- 3.2 PTR(Prompt Tuning with Rules)
- 3.3 task decomposition
- 3.4 Sub-prompts composition
- 3.5 多个label words的情况
- 4. 文章亮点
- 5. 原文传送门
- 6. References
1. 文章简介
- 标题:PTR: Prompt Tuning with Rules for Text Classification
- 作者:Xu Han, Weilin Zhao, Ning Ding, Zhiyuan Liu, Maosong Sun
- 日期:2022
- 期刊:AI Open
2. 文章概括
文章提出了PTR(Prompt Runing with Rules)用于文本多分类任务,核心思想在于将任务分解为子任务,然后根据预先定义的一些sub-prompts组合成新的prompt,从而更好地挖掘模型蕴含的知识。
3 文章重点技术
3.1 Pre-training & Fine-tuning & Prompt-based Fine Tuning
Pre-training一般通过BERT[1]完形填空来达成训练,如下图(a)所示,我们随机掩码一些token,然后再根据上下文预测这些token。
在一些任务中,我们要根据task的特性对模型进行微调,也就是Fine-tuning(FT),如下图(b)所示,FT阶段我们会在下游任务数据上微调模型的参数,从而使得模型在特定任务上表现更好。
但上述预训练和FT由于训练目标(完形填空VS分类/…)的差异会存在gap,为了解决上述gap,我们常用prompt-based FT来进行微调,如下图©所示,我们将标注数据嵌入到prompt中,这样下游任务目标也可以转化为一个完形填空式任务。
但针对关系提取等较为复杂的NLP任务时,上述prompt-based FT很难挑选合适的prompt和label words来支撑推理,此时可以采用auto-generated prompt方法,让模型自己生成prompt,如下图(d)所示。
但上述auto-generated prompt会产生额外的计算,为此我们可以通过Soft Prompt来解决,即下图(e),在hard prompt基础上进行梯度搜索。但soft prompt的问题时模型参数要足够大才会有效。
3.2 PTR(Prompt Tuning with Rules)
为了解决上述问题,文章提出了PTR,可以将单个复杂任务分解为几个简单的子任务,然后设计这些子任务的sub-prompt,再将sub-prompts整合成一个prompt。
具体来说,给定文本分类任务 T = { X , Y } \mathcal{T}=\{\mathcal{X}, \mathcal{Y}\} T={X,Y},文章将任务分解为一系列条件函数 F \mathcal{F} F。 f ∈ F f \in \mathcal{F} f∈F用于决定单个条件是否满足。如下图第一个例子所示,我们考虑一个关系提取任务"person:parent",给定句子"Mark Twain was the father of Langdon",我们要判定其中实体的关系。为此文章将任务分解为1) f e s ( ⋅ , ⋅ ) f_{e_s}(\cdot, \cdot) fes(⋅,⋅): "Mark Twain"是一个person 2) f e o ( ⋅ , ⋅ ) f_{e_o}(\cdot, \cdot) feo(⋅,⋅): “Langdon"是一个person 3) f e s , e o ( ⋅ , ⋅ , ⋅ ) f_{e_s, e_o}(\cdot, \cdot, \cdot) fes,eo(⋅,⋅,⋅): “Mark Twain"和"Langdon"的关系为”'s Parent was”,写成表达式即为 f e s ( a , p e r s o n ) ∧ f e s , e o ( a , ′ s p a r e n t w a s , b ) ∧ f e o ( b , p e r s o n ) f_{e_s}(a, person) \land f_{e_s, e_o}(a, 's\ parent\ was, b) \land f_{e_o}(b, person) fes(a,person)∧fes,eo(a,′s parent was,b)∧feo(b,person),其中 e s , e o e_s, e_o es,eo分别代表subject/object实体。
3.3 task decomposition
上述思想中一个关键的技术为如何将任务进行分解。文章利用了各个数据集中的标注信息来得到结构化信息,比如意图分类中,“card_activating”和"card_linking"均包含"card",从而我们可以将任务拆分为"card"部分和后缀部分。根据类似的规则,可以将文本多分类任务表示为层级分类格式,并根据每一层级设计一个条件函数。
对于每个条件函数 f ∈ F f\in\mathcal{F} f∈F,文章手动设计一个与之对应的sub-prompt。下表展示了文章针对关系提取任务设计的一些prompt。比如针对类别为"person:country_of_birth",文章设计的prompt为" < S 1 > <S1> <S1>. The person < E 1 > <E1> <E1> was born is the country < E 2 > <E2> <E2>",其中 < S 1 > <S1> <S1>表示原句, < E 1 > , < E 2 > <E1>, <E2> <E1>,<E2>表示subject/object实体。
3.4 Sub-prompts composition
将子任务分解之后,我们可以得到每个任务对应的sub-prompt,接下来需要将这些sub-prompts进行整合。考虑到 f e s , e o ( a , ′ s p a r e n t w a s , b ) f_{e_s, e_o}(a, 's\ parent\ was, b) fes,eo(a,′s parent was,b)的概率可能基于 f e s ( a , p e r s o n ) f_{e_s}(a, person) fes(a,person)和 f e o ( b , p e r s o n ) f_{e_o}(b, person) feo(b,person),文章考虑将所有sub-prompts整合为一个prompt:直接concat所有promp,即 T ( x ) = [ T f e s ( x ) ; T f e s , e o ( x ) ; T f e o ( x ) ; ] = x t h e [ M ] 1 e s [ M ] 2 [ M ] 3 [ M ] 4 t h e [ M ] 5 e o T(x) = [T_{f_{e_s}}(x);T_{f_{e_s, e_o}}(x);T_{f_{e_o}}(x);] \\= x\ the\ [M]_1\ e_s\ [M]_2\ [M]_3 [M]_4\ the\ [M]_5\ e_o T(x)=[Tfes(x);Tfes,eo(x);Tfeo(x);]=x the [M]1 es [M]2 [M]3[M]4 the [M]5 eo。其中 ; ; ;表示sub-prompts之间的聚合操作,对应的联合概率为 p ( y ∣ x ) = ∏ j = 1 n p ( [ M ] j = ϕ j ( y ) ∣ T ( x ) ) ∑ y ‾ ∈ Y ∏ j = 1 n p ( [ M ] j = ϕ j ( y ‾ ) ∣ T ( x ) ) (1) p(y|x) = \frac {\prod_{j=1}^n p([M]_j = \phi_j(y) | T(x))}{\sum_{\overline{y}\in\mathcal{Y} \prod_{j=1}^n p([M]_j = \phi_j(\overline{y}) | T(x))}} \tag{1} p(y∣x)=∑y∈Y∏j=1np([M]j=ϕj(y)∣T(x))∏j=1np([M]j=ϕj(y)∣T(x))(1),其中 n n n为template T ( x ) T(x) T(x)中的掩码个数。推理阶段我们直接采用上式来预测每个mask即可。
在训练阶段,我们会考虑将独立概率和联合概率结合,最终的PTR的损失函数为 L = 1 ∣ X ∣ ∑ x ∈ X ( L i n d e p ( x ) + L j o i n t ( x ) ) = 1 ∣ X ∣ ∑ x ∈ X [ − 1 n ∑ j = 1 n log p ( [ M ] j = ϕ j ( y x ) ∣ T ( x ) ) − log p ( y x ∣ x ) ] \mathcal{L} = \frac 1{|\mathcal{X}|} \sum_{x\in\mathcal{X}} (\mathcal{L}_{indep}(x) + \mathcal{L}_{joint}(x))\\=\frac 1{|\mathcal{X}|} \sum_{x\in\mathcal{X}} \left[-\frac 1n \sum_{j=1}^n \log p([M]_j = \phi_j (y_x) | T(x)) -\log p(y_x|x)\right] L=∣X∣1x∈X∑(Lindep(x)+Ljoint(x))=∣X∣1x∈X∑[−n1j=1∑nlogp([M]j=ϕj(yx)∣T(x))−logp(yx∣x)],其中 log p ( y x ∣ x ) \log p(y_x|x) logp(yx∣x)由(1)定义。
3.5 多个label words的情况
针对一些场景,同一个y值可能对应多个label words。如情感分类中positive可能对应"great, good"等,此时我们需要调整上面的等于关系为包含关系,特别地我们可以针对每个label words增加权重,最后的概率可表示为 1 m ∑ k = 1 m λ k p ( [ M ] j = w j , k ∣ T ( x ) ) \frac 1m \sum_{k=1}^m \lambda_k p([M]_j = w_{j,k}|T(x)) m1k=1∑mλkp([M]j=wj,k∣T(x)),其中 λ k \lambda_k λk为每个label word的权重,默认为1。
4. 文章亮点
文章提出了PTR,一种可以将复杂NLP任务进行分解,并通过将每个子任务的sub-prompt进行整合得到最终的prompt。文章在关系分类、实体提取和意图分类上进行了数值试验,结果表明,PTR相比于FT方法效果大幅提升,和其它prompt-based FT方法相比也有小幅提升或追平SOTA。文章论证了“预训练模型中包含足够多的下游任务相关知识,我们可以通过增加规则来用合适的prompt引导模型作出正确的推理。”
5. 原文传送门
PTR: Prompt Tuning with Rules for Text Classification
6. References
[1] 论文笔记–BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding