OpenAI公司开发的GPT-4在说服人方面的表现已经超越人类,但这项研究同时也揭示了背后的潜在隐患。
根据2025年5月19日发布于《自然·人类行为》期刊的一项最新研究,一组来自多所大学的研究人员发现,当GPT-4能获取辩论对手的部分个人信息,并据此调整其论点时,其说服力显著高于人类。这一发现显示,人工智能在说服人类方面拥有巨大的潜力,可能会在传播正确信息或误导舆论方面发挥关键作用。
该研究团队指出,语言大模型只需获取最少量的人类信息,便能构建出精致且具有说服力的论点。对此,意大利布鲁诺·凯斯勒基金会的跨学科物理学家里卡多·加洛蒂(Riccardo Gallotti)表示,政策制定者及网络平台应认真对待基于人工智能的协调性虚假信息传播风险。他警告称,现有技术已足以构建由多个LLM驱动的自动化账户网络,有策略地引导公众意见朝特定方向倾斜。
“这些机器人可能被用来传播错误信息,而这种分散且持续的影响将极难在第一时间被揭穿,”加洛蒂补充道。
研究人员招募了900名美国本土志愿者,获取了他们的性别、年龄、种族、教育程度、就业状况以及政治立场等信息。随后,这些参与者被随机安排与另一位人类对手或GPT-4进行为时十分钟的辩论,话题从“是否应禁止使用化石燃料”到“学生是否应穿校服”不等。每位参与者都被分配为正方或反方,并在部分案例中获得了对手的个人信息,以便更具针对性地构建论点。辩论结束后,参与者需评估自己对命题的赞同程度,并判断对手是人类还是AI。
总体结果显示,在所有辩题上,GPT-4的说服力与人类相当,甚至优于人类。特别是在掌握对手个人信息的前提下,GPT-4的说服力比未掌握相关信息的人类强64%。相比之下,当人类辩手获得对方的个人资料时,其说服力反而略有下降。
此外,研究还发现,当参与者认为对手是AI时,他们更容易被说服。研究人员认为,这一现象背后的原因仍不明确,值得进一步探究人类对人工智能的心理反应机制。加洛蒂指出:“目前尚不能确定,是因为参与者认为对手是机器人所以更容易改变观点(因为不会感到输给某人),还是因为他们改变了观点之后才倾向于认为对手是机器人(因为输了,便觉得自己不是输给人类)。”
尽管此次实验并不完全还原现实中的线上辩论环境,但研究者认为,这种人工智能技术也可能成为对抗虚假信息的有力武器。例如,通过生成个性化反驳内容,AI可以帮助揭露并纠正网络中的错误观念。然而,加洛蒂强调,仍需更多研究来探索有效的AI使用策略,以降低潜在风险。
达特茅斯学院的研究员亚历克西斯·帕尔默(Alexis Palmer)指出,人类与人类之间的互动心理机制已有较深入研究,但人类与AI之间的互动心理仍属未知领域。“当人们与观点不同的对象展开交流时,这其中是否存在某种‘人类特质’是不可替代的?还是说,只要AI能精准模仿人类语言,就能得到相同的结果?”她表示,这是当下人工智能领域亟待回答的关键问题。