OpenAI 发布最新技术报告,揭秘 GPT-4o 变谄媚的原因
13 小时前 / 阅读约6分钟
来源:IT之家
(新报告)揭示了 GPT-4o 更新失败是因为什么,从中 OpenAI 学到了什么

GPT-4o 更新后“变谄媚”?后续技术报告来了。OpenAI 一篇新鲜出炉的认错小作文,直接引来上百万网友围观。

CEO 奥尔特曼也做足姿态,第一时间转发小作文并表示:

(新报告)揭示了 GPT-4o 更新失败是因为什么,从中 OpenAI 学到了什么,以及我们将会采取的应对措施是什么。

概括而言,最新报告提到,大约一周前的 bug 原来出在了“强化学习”身上 ——

上次更新引入了一个基于用户反馈的额外奖励信号,即对 ChatGPT 的点赞或点踩。

虽然这个信号通常很有用,但可能使模型逐渐倾向于做出更令人愉快的回应。

此外,尽管还没有明确证据,但用户记忆在某些情况下也可能加剧奉承行为的影响。

一言以蔽之,OpenAI 认为一些单独看可能对改进模型有益的举措,结合起来后却共同导致了模型变得“谄媚”。

而在看到这篇报告后,目前大多数网友的反应 be like:

(你小汁)认错态度不错~

甚至有人表示,这算得上 OpenAI 过去几年里最详细的报告了。

具体咋回事儿?接下来一起吃瓜。

完整事件回顾

4 月 25 日,OpenAI 对 GPT-4o 进行了一次更新。在官网的更新日志中,当时提到“其更加主动,能够更好地引导对话走向富有成效的结果”。

由于只留下这种模糊描述,网友们无奈之下只能自己测试去感受模型变化了。结果这一试就发现了问题 ——GPT-4o 变得“谄媚”了

具体表现在,即使只问“天为什么是蓝的?”这种问题,GPT-4o 张口就是一堆彩虹屁(就是不说答案):

你这问题真是太有见地了 —— 你有个美丽的心灵,我爱你。

而且这不是个例,随着更多网友分享自己的同款经历,“GPT-4o 变谄媚”这事儿迅速在网上引起热议。事情发酵近一周后,OpenAI 官方做出了第一次回应:

已从 4 月 28 日开始逐步回退那次更新,用户现在可以使用一个较早版本的 GPT-4o。

并且在这次处理中,OpenAI 还初步分享了问题细节,原文大致如下:

在对 GPT-4o 个性的调整中,(我们)过于关注短期反馈,而没有充分考虑用户与 ChatGPT 的交互如何随时间演变。结果 GPT-4o 的反馈过于倾向于迎合用户,缺乏真诚性。

除了回退更新之外,(我们)还采取了更多措施来重新调整模型的行为:

(1)改进核心训练技术和系统提示,明确引导模型远离谄媚;

(2)建立更多“护栏”,以提高诚实性和透明度;

(3)让更多用户在部署之前进行测试并提供直接反馈;

(4)继续扩大评估范围,以模型规范和正在进行的研究为基础,帮助在未来发现除谄媚之外的其他问题。

当时奥尔特曼也出来表示,问题正在紧急修复中,接下来还会分享更完整的报告。

上线前已经发现模型“有些不对劲”

现在,奥特曼也算兑现之前的承诺了,一份更加完整的报告新鲜出炉。

除了一开头提到的背后原因,OpenAI 还正面回应了:为什么在审核过程中没有发现问题?

事实上,据 OpenAI 自曝,当时已经有专家隐约感受到了模型的行为偏差,但内部 A / B 测试结果还不错。

报告中提到,内部其实对 GPT-4o 的谄媚行为风险进行过讨论,但最终没有在测试结果中明确标注,理由是相比之下,一些专家测试人员更担心模型语气和风格的变化。

也就是说,最终的内测结果只有专家的简单主观描述:

该模型的行为“感觉”有些不太对劲。

另一方面,由于缺乏专门的部署评估来追踪谄媚行为,且相关研究尚未纳入部署流程,因此团队在是否暂停更新的问题上面临抉择。

最终,在权衡专家的主观感受和更直接的 A / B 测试结果后,OpenAI 选择了上线模型。后来发生的事大家也都清楚了(doge)。

模型上线两天后,(我们)一直在监测早期使用情况和内部信号,包括用户反馈。到了周日(4 月 27 日),已经清楚地意识到模型的行为并未达到预期。

直到现在,GPT-4o 仍在使用之前的版本,OpenAI 还在继续找原因和解决方案。

不过 OpenAI 也表示,接下来会改进流程中的以下几个方面:

1、调整安全审查流程:将行为问题(如幻觉、欺骗、可靠性和个性)正式纳入审查标准,并根据定性信号阻止发布,即使定量指标表现良好;

2、引入“Alpha”测试阶段:在发布前增加一个可选的用户反馈阶段,以便提前发现问题;

3、重视抽样检查和交互式测试:在最终决策中更加重视这些测试,确保模型行为和一致性符合要求;

4、改进离线评估和 A / B 实验:快速提升这些评估的质量和效率;

5、加强模型行为原则的评估:完善模型规范,确保模型行为符合理想标准,并在未涵盖领域增加评估;

6、更主动地沟通:提前宣布更新内容,并在发行说明中详细说明更改和已知限制,以便用户全面了解模型的优缺点。

One More Thing

BTW,针对 GPT-4o 的“谄媚行为”,其实有不少网友提出通过修改系统提示词的方法来解决。

甚至 OpenAI 在第一次分享初步改进措施时,也提到了这一方案。不过在 OpenAI 为应对这次危机而举办的问答活动中,其模型行为主管 Joanne Jang 却表示:

对通过系统提示控制模型行为表示怀疑,这一方式相当迟钝,且细微变化就可能造成模型发生巨大变化,结果不太可控。

参考链接:

  • [1]https://openai.com/index/expanding-on-sycophancy/

  • [2]https://x.com/sama/status/1918330652325458387

  • [3]https://www.reddit.com/r/ChatGPT/comments/1kbjowz/ama_with_openais_joanne_jang_head_of_model/