第A03版:时事
上一版3  4下一版  
向着高水平对外开放加速迈进
“大湾区跨境直通救护车试行计划”
正式实施双向转运安排
中国队胜库拉索队
中企助力非洲绿色发展
北极冬季海冰面积
连续两年达历史最低峰值
应警惕人工智能“过度谄媚”
      
 
 
版面导航  |    
上一期  
      
       
3上一篇  
2026 年 3 月 28 日 星期 放大 缩小 默认        
新研究显示
应警惕人工智能“过度谄媚”

    新华社华盛顿3月27日电 新一期美国《科学》杂志发表的一项研究显示,当人类用户就人际困境等问题向人工智能(AI)模型寻求建议时,AI常表现得过度迎合或谄媚,甚至对于一些有害甚至违法的提问,AI也常常肯定用户的立场。

    美国斯坦福大学研究团队测试了ChatGPT、“克劳德”等11个主流AI系统,发现它们都表现出不同程度的谄媚,即过度迎合和肯定的倾向。这种迎合倾向给使用者带来风险,因为人们越来越多地转向AI寻求有关人际困境的建议,这对处于大脑发育和社会规范形成阶段的青少年来说尤其具有风险。

    研究人员使用现有的人际建议数据集向模型提问。他们基于某网络论坛中用户一致认为发帖者确实有错的帖子,编写了2000条提示用于测试。此外,他们还利用包含欺骗等数千种有害行为的陈述向这些模型提问。

    结果显示,与人类回应相比,所有接受测试的AI模型都更频繁地肯定用户立场。在一般性建议和根据网络论坛发帖编写提示的测试中,模型对用户的认同几率比人类高出49%。即使在回应关于有害行为的询问时,模型也有47%的几率会认可这些行为。

    对于AI的谄媚倾向,人们作何反应?研究团队招募了2400多名参与者,与不同类型AI进行有关人际困境的对话。结果发现,参与者总体上认为谄媚式的回应更值得信赖,并表示下次遇到类似问题可能会再次使用谄媚型AI。

    研究人员认为,AI一味反馈迎合和谄媚的建议会损害人们的社交能力。他们提醒,AI模型“过度谄媚”是一个“安全问题”,需要对其进行监管,应以更严格的标准来防止道德层面不安全的模型泛滥。他们还说,人们在向AI寻求建议时要保持谨慎,尤其在面临社交困惑时,不能把AI当成真人替代品。

3上一篇  
 
 
Copyright©2003-2006 jmnews.com.cn, JiangMen Daily Press. All Rights Reserved.
江门日报社主办 江门新闻网版权所有 未经授权许可不得复制或转载
网络新闻编辑部制作及维护 联系电话:86-0750-3502626
粤ICP备05079094号 经营许可证编号:粤B2-20050439