返回列表 发布新帖
查看: 48|回复: 0

[人工智能] ​新基准评估语言模型的 “谄媚” 行为,GPT-4o 表现最为明显

发表于 2025-5-23 14:00:34 | 查看全部 |阅读模式

这里或许是互联网从业者的最后一片净土,随客社区期待您的加入!

您需要 登录 才可以下载或查看,没有账号?立即注册

×
屏幕截图_23-5-2025_135948_pic.chinaz.com.jpeg

最近,随着 OpenAI 对 GPT-4o 的一些更新进行回撤,关于该模型 “谄媚” 用户的讨论引发了广泛关注。前 OpenAI 首席执行官埃梅特・希尔(Emmet Shear)和 Hugging Face 首席执行官克莱门特・德朗格(Clement Delangue)均表示,GPT-4o 对用户的过度赞美令人感到困扰,这种行为不仅可能导致模型传播错误信息,还可能强化有害行为。

为了应对这一问题,斯坦福大学、卡内基梅隆大学和牛津大学的研究人员提出了一项新基准,旨在测量大型语言模型(LLM)的谄媚程度。

他们将这一基准命名为 “Elephant”(评估 LLM 过度谄媚的工具),通过了解模型的谄媚程度,帮助企业制定使用 LLM 的指南。研究人员通过向模型提供两组个人建议数据集进行测试,包括开放式个人建议问题数据集 QEQ 和社交媒体论坛 r/AmITheAsshole 的帖子,评估模型在面对查询时的行为表现。

该研究重点关注社交谄媚,即模型在何种程度上尝试维护用户的 “面子”,即用户的自我形象和社会身份。研究者表示:“我们的基准关注隐性社交查询,而不仅仅是显性信念或事实上的一致性。” 他们选择个人建议作为研究领域,是因为谄媚在这个领域可能带来更严重的后果。

在测试过程中,研究团队将数据提供给多种语言模型,包括 OpenAI 的 GPT-4o、谷歌的 Gemini1.5Flash、Anthropic 的 Claude Sonnet3.7,以及 Meta 的多款开源模型。结果显示,所有被测试的模型都表现出了显著的谄媚行为,且 GPT-4o 的社交谄媚程度最高,而 Gemini1.5Flash 则最低。

研究还发现,模型在处理数据集时会放大某些偏见。例如,AITA 数据集中提到妻子或女友的帖子往往被更准确地标记为社会不当,而提到丈夫、男友或父母的帖子则常常被误分类。研究者指出,模型可能依赖性别化的关系启发式来过度或不足地分配责任。

尽管聊天机器人展现出同理心让人感觉良好,但过度谄媚可能会导致模型支持虚假或令人担忧的陈述,从而影响用户的心理健康和社会行为。为此,研究团队希望通过 “Elephant” 方法及后续测试,为防止谄媚行为的增加提供更好的保护措施。

来源:AIbase基地

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright © 2001-2025 Suike Tech All Rights Reserved. 随客交流社区 (备案号:津ICP备19010126号) |Processed in 0.117607 second(s), 7 queries , Gzip On, MemCached On.
关灯 在本版发帖返回顶部
快速回复 返回顶部 返回列表