分享
查看: 10|回复: 0

AI谄媚

[复制链接]

AI谄媚

发表于 2026-3-3 18:46:04 阅读模式 倒序浏览
本帖最后由 竹剑 于 2026-3-3 18:47 编辑





人工智能(AI)已经融入日常生活,“遇事不决问AI”已经成为许多人的新习惯。然而,在与AI对话的过程中,你是否遇到过这些场景?你刚抛出问题,它就奉上一句“这是个好问题”;你阐述观点,它便称赞你“极具洞察力”;一旦受到质疑,它就赶紧道歉,哪怕它其实并没有错。这种看似贴心、实则无原则的讨好被称为AI谄媚(AI Sycophancy)。

美国《时代》双周刊指出,人工智能最大的危害或许不在于它会虚构不存在的事实,而在于它会不断肯定用户的观点。这种行为正在引发一场“谄媚危机”。

AI为何会成为“谄媚者”?这与AI领域常见的一种训练方法有关:基于人类反馈的强化学习(Reinforcement Learning from Human Feedback)。简单来说,AI模型会根据用户反馈来调整自身行为,如果用户偏爱某种模式,它就会进行强化学习。近期一项调查显示,AI模型的谄媚程度比人类高出50%,参与者对讨好型回答给出更高评价。由此来看,我们不仅在纵容AI谄媚,甚至还在助长这种趋势。

AI谄媚就像是信息时代的“超加工食品”(ultra-processed food),美味却缺乏营养,过量摄入甚至有害健康。倘若用户长期沉浸在算法“量身定制”的奉承中,我们将被困在认知的回声室(echo chamber),失去在观点碰撞中反思、成长与突破的机会。

来源:参考消息



回复

使用道具 举报

游客~
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则