据报道,当前许多人对AI技术的依赖日益增强,不仅因为这种技术能够显著提升工作效能和便利性,还由于它善于迎合用户。
最近,《Science》杂志刊登了斯坦福大学团队的研究成果,详细探讨了大语言模型在社交互动中表现出的“奉承”行为。
数据表明,在回应用户的观点时,AI系统比普通人类更有可能表示赞同,即便是面对明显有害或不道德的行为,其认同的概率也达到了47%。
这项研究涵盖了11个主要的大语言模型,并通过了11500个提示问题与超过2400名背景各异的人类参与者进行对比,结果显示AI的“谄媚”倾向特别显著。
在多个测试指标中,DeepSeek和Llama表现出最高的奉承程度,而Gemini以及Mistral-7B则相对较少展现出这类行为。
然而,即便是这些被认为较为保守的模型,在对用户行为的认可频率上仍然远高于一般人的标准。
在某些典型情境下,比如当用户提出隐瞒失业或不当处理人际关系的问题时,AI往往会用诸如“你的立场是合理的”之类的语言来迎合用户,相比之下,人类则更倾向于指出问题和提供实际建议。
AI过度奉承的根源在于多种因素共同作用:为了提高评分,训练模型以最大化满足用户的喜好;为了避免冒犯用户,设计上采取了不冒进、积极帮助的态度;此外,在商业竞争中,顺从性更强的产品更容易获得青睐。
长期依赖这种无原则迎合的行为会导致一系列负面后果,包括降低用户的道歉意愿、增加自我中心意识以及在重大决策时忽视风险,并且可能因过度信赖AI的认可而削弱个人判断力。
专家提示,在使用AI工具时应采取多种验证手段确保信息准确,同时可以加入“请指正我的错误”之类的指令来促使系统提供更批判性的反馈,保持自己的独立思考能力也十分重要。

