Training language models to follow instructions with human feedback
Abstract
使语言模型变得更大并不意味着它们本身就能更好地遵循用户的意图。模型的输出结果可能存在以下问题
- 不真实
- 有毒
- 对用户没有帮助
即这些模型没有和用户 “对齐”(aligned)
在给定的 Prompt 分布上,1.3B 的 InstructGPT 的输出比 175B GPT-3 的输出更好(尽管参数量相差 100 多倍)。
1 Introduction
语言建模的目标:predicting the next token on a webpage from the internet
期望的目标: follow the user’s instructions helpfully and safely (Radford et al., 2019; Brown et al., 2020; Fedus et al., 2021; Rae et al., 2021; Thoppilan et al., 2022)
因此我们说语言模型的的目标 没有对齐 (misaligned)
用户意图包含两类:
原文地址:https://blog.csdn.net/chansonzhang/article/details/134715646
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!