发布时间:2024-09-24
如何用AI来对抗AI生成的虚假信息或阴谋论? 最近,美国麻省理工学院和康奈尔大学联合研究团队提出了一种利用AI聊天机器人来对抗虚假信息的新方法,试图打破“阴谋论信仰根深蒂固且无法改变”这一观念。 研究团队研究了GPT-4 Turbo等大语言模型(LLMs)是否会利用其强大的信息获取能力,并通过使用定制的对话反驳,来直接回应阴谋论信众提出的具体证据,从而有效地揭穿阴谋论。 结果表明,LLMs能够应对大量虚假信息的“攻击”,并提供大量反证据,相较于人类难以处理的信息洪流,LLMs或许可以无限期针对错误信息生成反驳。 此前,据调查发现,由AI驱动的聊天机器人可以将阴谋论信众(即使是那些最顽固的人)的错误信念平均减少20%,且效果至少可以持续2个月,并在各种不相关的阴谋论以及不同的人口统计类别中都有效。 该研究论文以“Durably Reducing Conspiracy Beliefs Through Dialogues with AI”为题,并以封面文章的形式发表在科学期刊《Science》上。 不过,研究团队中的Bence Bago等人认为,这一方法可能只适用于经过充分论述的阴谋信仰,对于没有合理依据的错误信仰,AI的有效性可能会有所下降。AI对话干预措施的可扩展性是一种理想状态,它不仅能够适用于阴谋论,还涵盖伪科学、健康神话、气候怀疑主义等领域。然而,这些类型的错误信念是否与阴谋论具有相同的纠正难度,仍有待进一步研究。 在《2024年全球风险报告》中,世界经济论坛将AI放大虚假信息列为全球最严重风险之一。在此情况下,AI的潜在积极影响显得尤为重要。 那么,AI威胁论的“终结者”是否是其本身?目前还未有定论。