人工智能机器人如何破坏 2024 年全球选举

一项新的分析显示,人工智能生成的不实信息将在超过 50 个国家几乎每天瞄准选民

Man holding a glowing smart phone

仇恨言论、政治宣传和彻头彻尾的谎言在网上并非新鲜事——即使像今年这样的选举年加剧了这些问题。使用机器人或自动化社交媒体帐户,使得传播蓄意捏造的不实信息以及不准确的谣言或其他类型的误导信息变得容易得多。但是,过去影响投票季的机器人经常会产生结构糟糕、语法不正确的句子。现在,随着大型语言模型(创建文本的人工智能系统)变得越来越容易被更多人访问,一些研究人员担心,自动化社交媒体帐户很快就会变得更具说服力

根据PNAS Nexus上发表的一项新研究,不实信息宣传活动、网络喷子和其他“不良行为者”将越来越多地使用生成式人工智能来助长选举谎言。研究人员在其中预测——基于“先前对网络和自动化算法攻击的研究”——人工智能将在 2024 年几乎每天帮助在社交媒体平台上散布有害内容。研究作者表示,潜在的后果可能会影响今年举行选举的 50 多个国家(从印度到美国)的选举结果。

该研究绘制了 23 个在线平台(包括 Facebook 和 Twitter 以及 Discord 和 Gab 上的小众社区)上不良行为者群体之间的联系,研究的主要作者、乔治·华盛顿大学物理学教授尼尔·约翰逊说。研究发现,发布大量仇恨言论的极端主义团体倾向于在较小的平台上形成和生存更长时间——这些平台通常用于内容审核的资源较少。但他们的信息可以传播得更广。


关于支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保有关塑造我们当今世界的发现和想法的具有影响力的故事的未来。


约翰逊说,许多小型平台“彼此之间以及内部都联系非常紧密”。这使得不实信息像弹珠一样在 4chan 论坛和其他监管宽松的网站上弹跳。约翰逊和他的同事估计,如果恶意内容从这些网络渗透到 YouTube 等主流社交网站上,那么可能有 10 亿人容易受到其影响。

纽约大学社交媒体与政治中心执行主任泽夫·桑德森说:“社交媒体降低了传播误导信息或信息的成本。人工智能正在降低制作信息的成本。”他没有参与这项新研究。“现在,无论您是外国恶意行为者还是规模较小的国内活动的一部分,您都可以使用这些技术来制作在某种程度上引人注目的多媒体内容。”

不实信息先前选举中的研究已经查明,大型机器人如何能够在社交媒体上传播恶意内容,从而操纵在线讨论并侵蚀信任。过去,机器人会获取由人或程序创建的消息并重复它们,但今天的大型语言模型 (LLM) 正在增强这些机器人的一项新功能:听起来令人信服的人工编写的文本。卡内基梅隆大学计算机科学学院的计算社会科学家凯瑟琳·卡莉说:“仅生成式人工智能并不比机器人更危险。它是机器人加上生成式人工智能。”生成式人工智能和大型语言模型也可用于编写软件,从而使程序员能够更快、更轻松地编写机器人代码。

麻省理工学院计算机科学与人工智能实验室研究生成式人工智能建模的博士生杜一伦说,许多早期机器人仅限于相对较短的帖子,但生成式人工智能可以生成逼真的段落式评论。目前,人工智能生成的图像或视频比文本更容易检测;杜解释说,对于图像和视频,“你必须使每个像素都完美,因此这些工具中的大多数在照明或图像上的其他效果方面实际上非常不准确。”然而,文本是最终的挑战。桑德森说:“我们没有任何有意义的成功率的工具可以识别 LLM 生成的文本。”

尽管如此,仍然有一些迹象可以提醒专家注意人工智能生成的写作:例如,语法过于完美,或者缺乏俚语、情感词或细微差别。“编写显示哪些是由人类制作的,哪些不是的软件,并进行此类测试,成本非常高且非常困难,”卡莉说。尽管她的团队已经致力于开发程序来识别特定社交媒体平台上的人工智能机器人内容,但她说这些工具并不完善。卡莉补充说,每个程序都必须完全重做才能在不同的网站上运行,因为例如,X(以前的 Twitter)上的用户交流方式与 Facebook 用户的交流方式截然不同。

许多专家怀疑,人工智能检测程序(分析文本中大型语言模型参与迹象的程序)能否充分识别人工智能生成的内容。向此类材料添加水印,或者在人工智能模型本身中添加过滤器和护栏,也无法涵盖所有方面。卡莉说:“在使用人工智能和不实信息领域,我们正与不良行为者展开一场军备竞赛。” “一旦我们想出一种检测它的方法,他们就会想出一种使其更好的方法。”约翰逊和他的同事还发现,不良行为者很可能会滥用生成式人工智能的基本版本,例如 GPT-2,这些版本是公开可用的,并且内容过滤器比当前的模型宽松。其他研究人员预测,即将到来的恶意内容不会使用大公司复杂的 AI 制作,而是由少数或个别程序员制作的开源工具生成。

但是,即使使用这些更简单的人工智能版本,机器人也可以协同进化。在之前的选举周期中,机器人网络仍然接近社交媒体的边缘。专家预测,人工智能生成的不实信息这次将传播得更加广泛。这不仅仅是因为人工智能可以更快地生成内容;社交媒体使用动态也发生了变化。桑德森解释说:“在 TikTok 出现之前,我们看到的大多数社交媒体都是基于朋友、关注者、社交关系图的网络。人们往往关注与自己立场一致的人。” TikTok 转而使用算法 feed,该 feed 会注入来自用户未关注帐户的内容,其他平台也已更改其算法以效仿。此外,正如桑德森指出的那样,它还包括“平台正在尝试发现您是否喜欢”的主题,从而导致“更广泛的内容消费网络”。

在桑德森之前对 Twitter 上机器人的研究中,研究助理经常通过查看其帐户活动(包括其发布或转发的照片和文本)来将帐户标记为机器人或非机器人。“这本质上就像针对帐户的图灵测试,”他说。但是,随着人工智能生成技术在消除语法不规则和其他机器人内容标志方面变得越来越好,桑德森认为,识别这些帐户的责任将不得不落在社交媒体公司身上。这些公司有能力检查与帐户关联的元数据,外部研究人员很少能够访问这些元数据。

一些不实信息专家认为,与其追究虚假内容本身,不如找到并控制制造虚假内容的人会是一种更实际的方法。杜建议,有效的对策可以通过检测来自特定 IP 地址的活动或识别一天中某个时间是否存在数量异常多的帖子来发挥作用。

卡莉说,这可能有效,因为“不良行为者少于不良内容”。而不实信息传播者集中在互联网的某些角落。“我们知道,很多东西都来自链接到彼此的少数几个主要网站,而这些网站的内容是由 LLM 生成的,”她补充道。“如果我们能够将整个不良网站检测出来,我们就会突然捕获大量不良信息。”此外,卡莉和约翰逊都认为,在小型社交媒体社区层面(例如,特定 Facebook 页面或 Telegram 频道的成员发布的帖子)审核内容,将比禁止整个类别内容的全面政策更有效。

然而,并非一切都输给了机器人。尽管人们对人工智能对选举的影响存在合理的担忧,但桑德森和他的同事最近反对过分夸大潜在危害。增加人工智能内容和机器人活动对人类行为(包括两极分化、投票选择和凝聚力)的实际影响仍需要更多研究。桑德森说:“我担心的恐惧是,我们将花费太多时间试图识别正在发生的事情,并假设我们知道其影响。” “情况可能是,影响并没有那么大,而最大的影响是对它的恐惧,因此我们最终只会侵蚀对信息生态系统的信任。”

© . All rights reserved.