AI聊天机器人对我们的观念有多大影响力?【Science周一新闻】
作者:微信文章点击上方蓝色字,关注我们
最新一项Science研究表明(2025年12月4日刊),即使是小型开源AI聊天机器人,也能成为有效的政治说服者。该研究绘制了一幅完整的AI政治说服机制实证图谱,揭示出后期训练与提示策略——而非模型规模或个性化功能——才是真正的主导因素。
研究还发现了说服力与准确性难以兼顾的证据,这一发现将重塑政策制定者与研究人员对“有说服力AI”之风险的理解。
论文链接:https://www.science.org/doi/10.1126/science.aea3884
为何关注AI的说服力?
随着AI技术的进步,尤其是对话式大语言模型的发展,许多人日益担忧:机器可能很快便能以前所未有的规模对人类信念产生重大影响。然而,这些系统的真实说服力究竟有多强、其背后机制如何,在很大程度上仍然未知。
三大核心问题
为深入探究,研究作者Kobi Hackenburg及团队同事围绕三个核心问题展开研究:模型是否越大越先进就越有说服力?能否通过针对性后期训练提升小型模型的说服力?AI系统在试图改变人们想法时会使用哪些策略?
实验设计
研究团队开展了三项大规模问卷实验,近7.7万名参与者与19种不同的大语言模型进行了对话,话题涵盖数百项政治议题。这些模型涵盖了从小型开源系统到最先进的“前沿”模型。同时,研究测试了多种提示策略与后期训练方法,评估了每一个“控制杠杆”对说服效果和事实准确性的影响。
关键发现
模型规模与个性化(即向LLM提供用户信息)对说服效果的影响较小但可量化。
后期训练技术与简易提示策略能大幅提升说服力,增幅分别高达51%与27%。
经过后期训练的小型开源模型,在改变政治态度方面足以媲美大型前沿模型。
AI系统在提供信息丰富的论点时说服力最强——不同模型与方法中,约半数说服效果的差异可归因于此。
存在显著权衡:有效提升说服力的模型与提示策略,往往会牺牲事实真实性;为影响力而优化模型,可能会无意中降低其准确性。
点分享
点收藏
点在看
点个赞
页:
[1]