最近关注美国政治的人,一定都听到过一些假消息。例如,数千万名已故的百岁老人仍在领取社会
最近关注美国政治的人,一定都听到过一些假消息。例如,数千万名已故的百岁老人仍在领取社会保障金;救灾资金被用于将移民安置在纽约市的豪华酒店等。这些说法尽管站不住脚,但仍有许多人对此信以为真,这显示出社交媒体时代和政治极端化模糊了真相与阴谋论之间的界限。而“辟谣学”,即如何纠正人们脑海中根深蒂固的信念,仍在努力追赶这种现象的步伐。
许多人下意识想到用争辩的方式进行说服,但往往收效甚微。华盛顿特区美利坚大学专门研究宣传的说服效应及其应对策略的库尔特·布拉多克表示,这种方法甚至可能适得其反,让人们更加坚定原本持有的看法。然而,新的研究表明,当对话对象是生成式人工智能(AI)模型时,说服的效果可能会更好。
2024年9月,麻省理工学院的托马斯·科斯特洛及其同事发布了一项研究,探讨当ChatGPT试图说服自称相信阴谋论的人放弃他们的信念时会发生什么。该研究让2190名相信阴谋论的人与GPT-4模型进行对话,经过3轮后,他们的信念强度降低了20%。其中,有1/4的受访者完全放弃了原有的信念。
在科斯特洛看来,AI聊天机器人之所以比人类更有效,是因为它们能够始终保持理性回应,不会让情绪占据上风。此外,AI可以从庞大的训练数据中筛选出合适的反驳论据,而不像人类辩论时常依赖一些泛泛而谈的论点。
AI聊天机器人还能解决人类在辟谣过程中常见的另一个问题。2024年10月的一项研究表明,当人们的信念受到挑战时,他们往往会怀疑反驳者的动机。例如,美国共和党人可能会认为,民主党人否认2020年美国大选存在舞弊的说法,只是因为民主党人维护选举结果的既得利益。但如果反驳者是AI系统,则可能不会被怀疑。(环球网)
...展开