OpenAI最新技术报告:GPT-4o变谄媚的原因没想到

2025-05-07

  (新报告)揭示了GPT-4o更新失败是因为什么,从中OpenAI学到了什么,以及我们将会采取的应对措施是什么。

  概括而言,最新报告提到,大约一周前的bug原来出在了“强化学习”身上

  上次更新引入了一个基于用户反馈的额外奖励信号,即对ChatGPT的点赞或点踩。

  此外,尽管还没有明确证据,但用户记忆在某些情况下也可能加剧奉承行为的影响。

  一言以蔽之,OpenAI认为一些单独看可能对改进模型有益的举措,结合起来后却共同导致了模型变得“谄媚”。

  在官网的更新日志中,当时提到“其更加主动,能够更好地引导对话走向富有成效的结果”。

  具体表现在,即使只问“天为什么是蓝的?”这种问题,GPT-4o张口就是一堆彩虹屁(就是不说答案):

  你这问题真是太有见地了你有个美丽的心灵,我爱你。

  而且这不是个例,随着更多网友分享自己的同款经历,“GPT-4o变谄媚”这事儿迅速在网上引起热议。

  已从4月28日开始逐步回退那次更新,用户现在可以使用一个较早版本的GPT-4o。

  在对GPT-4o个性的调整中,(我们)过于关注短期反馈,而没有充分考虑用户与ChatGPT的交互如何随时间演变。结果GPT-4o的反馈过于倾向于迎合用户,缺乏真诚性。

  (2)建立更多“护栏”,以提高诚实性和透明度;(3)让更多用户在部署之前进行测试并提供直接反馈;(4)继续扩大评估范围,以模型规范和正在进行的研究为基础,帮助在未来发现除谄媚之外的其他问题。

  除了一开头提到的背后原因,OpenAI还正面回应了:为什么在审核过程中没有发现问题?

  事实上,据OpenAI自曝,当时已经有专家隐约感受到了模型的行为偏差,但内部A/B测试结果还不错。

  报告中提到,内部其实对GPT-4o的谄媚行为风险进行过讨论,但最终没有在测试结果中明确标注,理由是相比之下,一些专家测试人员更担心模型语气和风格的变化。

  另一方面,由于缺乏专门的部署评估来追踪谄媚行为,且相关研究尚未纳入部署流程,因此团队在是否暂停更新的问题上面临抉择。

  最终,在权衡专家的主观感受和更直接的A/B测试结果后,OpenAI选择了上线模型。

  模型上线两天后,(我们)一直在监测早期使用情况和内部信号,包括用户反馈。到了周日(4月27日),已经清楚地意识到模型的行为并未达到预期。

  直到现在,GPT-4o仍在使用之前的版本,OpenAI还在继续找原因和解决方案。

  1、调整安全审查流程:将行为问题(如幻觉、欺骗、可靠性和个性)正式纳入审查标准,并根据定性信号阻止发布,即使定量指标表现良好;

  2、引入“Alpha”测试阶段:在发布前增加一个可选的用户反馈阶段,以便提前发现问题;

  3、重视抽样检查和交互式测试:在最终决策中更加重视这些测试,确保模型行为和一致性符合要求;

  5、加强模型行为原则的评估:完善模型规范,确保模型行为符合理想标准,并在未涵盖领域增加评估;

  6、更主动地沟通:提前宣布更新内容,并在发行说明中详细说明更改和已知限制,以便用户全面了解模型的优缺点。

  BTW,针对GPT-4o的“谄媚行为”,其实有不少网友提出通过修改系统提示词的方法来解决。

  不过在OpenAI为应对这次危机而举办的问答活动中,其模型行为主管Joanne Jang却表示:

  对通过系统提示控制模型行为表示怀疑,这一方式相当迟钝,且细微变化就可能造成模型发生巨大变化,结果不太可控。