自学内容网 自学内容网

NeurIPS 2024 | 小模型引导大模型生成,无需微调实现弱到强泛化!

672556433efab13ca6514c8dc2cb7212.gif

©PaperWeekly 原创 · 作者 | 周展辉

单位 | 上海人工智能实验室

研究方向 | 语言模型对齐

大语言模型通常需要通过微调来符合人类的偏好,但直接微调这些大模型需要大量的资源,并不容易。 

在本研究中,我们提出“弱到强搜索”(weak-to-strong search)方法,将大模型的对齐过程转变为推理阶段的一种贪婪搜索方式:我们首先微调一个小模型,然后在大模型解码过程中,引导大模型去最大化微调前后小模型的输出对数概率差,从而实现类似于微调大模型的效果。 

这种方法具有以下两大作用:

1)作为一种计算高效的模型扩展策略,通过微调小模型来对大模型进行推理阶段的引导,避免直接对大型模型进行微调;

2)作为一种弱到强的泛化(weak-to-strong generalization)[1] 的实现方式,通过弱推理时引导来提高强模型的性能。

在实验中,我们展示了“弱到强搜索”(weak-to-strong search)在不同任务中的有效性。此方法适用于提升白盒以及黑盒大模型的性能(如 gpt3.5),而无需额外训练;且此方法在情感控制生成,摘要生成,以及对话任务上都展现出出色的效果。

9458a38827c2fec4c7fbb8aded6577ae.png

论文标题:

Weak-to-Strong Search: Align Large Language Models via Searching over Small Language Models

论文链接:

https://arxiv.org/abs/2405.19262

Github地址:

https://github.com/ZHZisZZ/weak-to-strong-search

a315dd418b4e6f77e68a56afba9beb5e.png

▲ 图1:“弱到强搜索”(weak-to-strong search)通过开源小模型(zephyr-7b-beta 以及其微调前的版本 mistral-7b-sft-beta)的弱推理时引导,提高了各种大模型的在标准问答任务上(AlpacaEval 2.0)的表现。

053afe3247e2eee64308c95ca8a9d6a2.png

背景

1.1 语言模型的对齐

语言模型的对齐目标通常被形式化为以下表达式:

f0ede61a1068e05c6aaf70d26a2256fa.png

其中, 是提问分布, 是语言模型的回复, 奖励语言模型与人类价值对齐, 限制微调后的模型 与微调前模型 的分布差异。

对齐算法主要分为两大类:

(i) 基于搜索的算法,在推理过程中通过基于图的搜索来优化公式(1);

(ii) 基于学习的算法,通过梯度下降来优化公式(1),目标是得到一个参数化的最优语言模型。我们在本工作提出的算法属于基于搜索的算法

1.2 语言模型和奖励函数的二象性

公式(1)的解析解可以通过构造以下拉格朗日函数获得:

f8ce89841c095649500a15b6cf6e76de.png

此目标函数的有一个众所周知的闭式解,表达了奖励函数 和最优语言模型 之间的二象性:

f99a51d012ab2ecc2ee31abbd7327969.png

其中 是配分函数。值得注意的是,这个映射关系不仅体现了语言模型和奖励函数的二象性,同时也蕴含一个重要的实际意义:我们可以使用微调和未微调的语言模型的输出差异来表示一个奖励函数。

ca21965dab2f64efd163a532880ac356.png

方法:弱到强搜索(Weak-to-Strong Search)

在本节中,我们介绍了“弱到强搜索”(weak-to-strong search),这是一种基于搜索的算法,通过在微调和未微调小模型之间的对数概率差上进行搜索来对齐大型语言模型。 

首先,我们讨论了如何使用语言模型来参数化偏好奖励函数,从而使得奖励最大化问题可以通过简单的贪婪搜索算法来求解(2.1 节)。接着,我们介绍了一种实用的束搜索方法——分块束搜索(Chunk-level Beam Search),适用于引导白盒和黑盒大型语言模型(2.2 节)。

2.1 语言模型同时作为奖励和价值函数

基于搜索的对齐算法面临的一个挑战是偏好奖励信号的稀疏性。基于Bradley-Terry模型的偏好奖励函数 只有在模型生成完整回复 时才会发出最终奖励。没有任何中间奖励或提供中间指导的价值函数时,搜索算法往往会遇到困难。

然而,如果我们使用语言模型对该稀疏奖励函数进行参数化(公式(3)),则可以同时获得密集的奖励函数(2.1.1 节)和价值函数(2.1.2 节)。

2.1.1 语言模型作为奖励函数

为了获得一个密集的奖励函数,我们可以利用稀疏的偏好奖励函数与密集的语言模型概率之间的二象性(1.2 节)。通过在语言模型下显式分解完整回复 的对数概率,我们为公式(3)得到一种“奖励之和”形式的表达:

7b36b2fdd4ebf70252eee7175cf4c4a8.png

结合公式(1)和公式(4),我们用一个逐词元的(per-token)奖励函数重写了原始目标:

5b095662bfcd1cbb11244a8cf5c2421e.png

其中省略了 和 ,因为它们不影响最优解。

需要注意的是,用于参数化奖励函数的参考模型()和用于约束推理时搜索空间的参考模型()可以是不同的。在实际应用中,解耦参考模型非常有用,因为这允许使用一个微调过的和一个未微调的语言模型对(即 )来引导任意基础语言模型()的解码,而无需重新训练。

2.1.2 语言模型作为价值函数

在此稠密奖励的引导下,我们便能复用常用的贪婪搜索例如 beam search 去优化目标(5)。但在稠密的奖励下进行贪婪搜索也存在导致短视的决策的风险 [2],因为贪婪搜索往往不会充分考虑未来的奖励,而是优先最大化当下的累计奖励。

虽然这种批评对大多数马尔可夫决策过程是正确,但基于词元级别的马尔科夫决策过程(token-level MDP)[3],生成过程中的累积奖励实际上是长期价值的可靠指示器,从而使得束搜索不那么短视

a330a181c156ea83bd3c2f8967a2e188.png

换句话说,词元级别的奖励函数之和可以视作一个价值函数 提供长远的生成指导。在下一小节,我们将基于此想法,介绍一个实际的推理算法,将视作价值函数来引导模型生成。

注: 表示一个完整的回复,而 既可以表示一个完整回复也可以表示一个不完整的回复。

2.2 分块束搜索(Chunk-level Beam Search)

90fa0ccc184bbff98f70ed3b1599616c.png

▲ 图2:分块束搜索示意图,参数 。

在分析了使用贪婪搜索算法(如束搜索)优化目标(5)的可行性后,我们提出了一种实用的束搜索变体。支撑我们方法的核心算法——分块束搜索(Chunk-level Beam Search,简称 CBS)在图 2 中进行了说明。

关键点在于我们的束搜索在块级别上操作。搜索从提问开始,并始终保持一个假设集 ,其中包含 个状态。

对于 中的每个状态 ,CBS 从 中采样 个长度为 的后续块 。这产生了 个后继状态。在这些后继状态中,仅保留部分回报 最高的前 个后继状态,并进一步扩展。

最终,选择中间回报最高的终端状态 ,并从中提取完整的回复 。

2.3 应用:模型扩展与弱到强的泛化

CBS 的最实际应用是在微调和未微调模型(、)比要引导的模型 更小时:

首先,这种情况作为一种模型扩展策略,直接对小模型进行微调 ,从而引导大模型的解码,实现与直接微调大模型相似的效果。

其次,由于小模型(、)通常比要引导的大模型 弱,这种情况也体现了从弱到强的泛化,通过仅在测试时提供弱的引导来增强强模型的性能。我们将 CBS 的这种应用称为“弱到强搜索”(weak-to-strong search),这是我们研究的重点。

41cd4d5d9040fbecdaddba3af8310164.png

实验

在本节中,我们通过实验评估“弱到强搜索”(weak-to-strong search),在仅使用小语言模型的推理时引导下,对齐大型语言模型的能力。

首先,在控制情感生成和摘要生成任务中,我们微调 gpt2 以建模每个任务中所需的行为,然后使用微调和未微调的 gpt2 来引导不同规模的大模型(图3)。

接着,在更具挑战的指令跟随基准测试 AlpacaEval 2.0 中,我们不再微调小模型,而是直接使用现成的开源 7B 模型及其未微调版本来引导一系列大型模型,包括开源的 70B 模型和一个黑盒模型(图 4)。

5183eca7859b59fcb18f8f277df8ce9f.png

▲ 图3:控制情感生成任务(左)和摘要生成任务(右)。我们用微调前后的124M参数的gpt2模型引导其他更大的模型进行生成;弱到强搜索(Weak-to-Strong Search)超越了其他推理时对齐基线,实现了近似直接微调(Directly tuned)的效果。

089e9006f5a0faa1f7d36a0cfa63f30d.png

▲ 图4:问答任务。我们用现成的开源 7B 模型及其未微调的版本(左:zephyr及其微调前版本;右:tulu及其微调前版本)以引导其他更大或更强的模型进行生成;弱到强搜索(Weak-to-Strong Search)超越了其他推理时对齐基线,并展现了稳定的弱到强泛化:虽然被引导的模型本身(蓝色柱状图)比提供引导的模型强(加粗虚线),我们的方法依旧能稳定提升强模型的性能。

61baa5dd0ba401a1bc5cc4a0a2b263d4.png

结论

我们提出了“弱到强搜索”,一种在保持大型语言模型冻结的情况下,将大模型的对齐过程转变为在小模型引导下的推理阶段的一种贪婪搜索方式。

这种方法提供了一种计算高效的模型扩展策略,避免了直接微调大型模型的复杂性,同时体现了“弱到强的泛化”,通过仅在测试时提供弱引导使强模型更强。实验证明,该方法在控制情感生成、摘要生成和指令跟随任务中是有效的。

outside_default.png

参考文献

outside_default.png

[1] Burns, Collin, et al. "Weak-to-strong generalization: Eliciting strong capabilities with weak supervision." arXiv preprint arXiv:2312.09390 (2023).

[2] Janner, Michael, Qiyang Li, and Sergey Levine. "Offline reinforcement learning as one big sequence modeling problem." Advances in neural information processing systems 34 (2021): 1273-1286.

[3] Rafailov, Rafael, et al. "From $r$ to $Q^*$: Your Language Model is Secretly a Q-Function." arXiv preprint arXiv:2404.12358 (2024).

更多阅读

991b55c53807590e98aa58513d4b7543.png

66b1feffa92dab776813fad965121adf.png

62828e0f119d00b4dd69bbc7562ce66c.png

555c5dfdb1be7b7697607ddc5b2d65d7.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

55733f2cdbe51cdda61057bfd028efb3.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

·

7f533fba805efa7ebd8061e5abf91f61.jpeg


原文地址:https://blog.csdn.net/c9Yv2cf9I06K2A9E/article/details/143497726

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!