人工智能如何帮助中国和俄罗斯干预美国选举

ChatGPT 和类似的 AI 程序为宣传者和情报人员提供了一个强大的新工具来干预政治。在 2024 年选举前学会识别这种虚假信息迫在眉睫

Capitol building in D.C. with blue technology wave

政治和社交媒体的交汇处是人工智能驱动的虚假信息的沃土。

以下文章经许可转载自 The Conversation,这是一个报道最新研究的在线出版物。

世界各地的选举正面临着来自外国势力的不断演变的威胁,其中就包括人工智能。


关于支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。 通过购买订阅,您将帮助确保未来能够继续刊登关于塑造我们当今世界的发现和思想的具有影响力的故事。


试图相互影响选举的国家在 2016 年进入了一个新时代,当时俄罗斯人发起了一系列针对美国总统选举的社交媒体虚假信息宣传活动。 在接下来的七年中,一些国家(最突出的是中国和伊朗)利用社交媒体来影响外国选举,包括美国和世界其他地区的选举。 没有理由期望 2023 年和 2024 年会有什么不同。

但出现了一个新要素:生成式人工智能和大型语言模型。 这些技术能够快速轻松地生成关于任何主题、以任何语气、从任何角度出发的海量文本。 作为一名 安全专家,我认为它是一种特别适合互联网时代宣传的工具。

这一切都非常新。 ChatGPT 于 2022 年 11 月推出。 更强大的 GPT-4 于 2023 年 3 月发布。 其他语言和图像生成 AI 的出现时间也差不多。 目前尚不清楚这些技术将如何改变虚假信息,它们将有多有效,或者会产生什么影响。 但我们即将 выяснить。

选举的结合

在大部分民主国家,选举季很快将进入 全面展开 阶段。 在现在到明年年底之间,生活在民主国家的人口中,将有 71% 的人参加 национальные 选举。 其中包括:10 月份的阿根廷和波兰,1 月份的台湾,2 月份的印度尼西亚,4 月份的印度,6 月份的欧盟和墨西哥,以及 11 月份的美国。 包括南非在内的九个非洲民主国家将在 2024 年举行选举。 澳大利亚和英国没有固定的日期,但选举很可能在 2024 年举行。

其中许多选举对于过去曾进行过社交媒体影响力行动的国家来说至关重要。 中国非常关心 台湾印度尼西亚印度许多非洲国家。 俄罗斯关心英国、波兰、德国和 总体而言的欧盟。 每个人都关心美国。

而这仅仅考虑了最大的参与者。 自 2016 年以来,每次美国全国选举都伴随着另一个试图影响结果的国家。 最初只有俄罗斯,然后是俄罗斯和中国,最近是这两个国家加上伊朗。 随着外国影响力行动的经济成本降低,越来越多的国家可以参与其中。 像 ChatGPT 这样的工具显著降低了制作和传播宣传的成本,使许多更多国家都能负担得起这种能力。

选举干预

几个月前,我参加了一个会议,与会者来自美国所有的网络安全机构。 他们谈到了他们对 2024 年选举干预的预期。 他们预计通常的参与者——俄罗斯、中国和伊朗——以及一个重要的新参与者:“国内行为者”。 这是成本降低的直接结果。

当然,运行虚假信息宣传活动不仅仅是生成内容。 困难的部分是传播。 宣传者需要一系列虚假帐户来发布内容,并需要其他人将其推向主流,使其能够像病毒一样传播。 像 Meta 这样的公司在识别这些帐户并将其删除方面做得越来越好。 就在上个月,Meta 宣布,它已删除了与中国影响力宣传活动相关的 7,704 个 Facebook 帐户、954 个 Facebook 页面、15 个 Facebook 群组和 15 个 Instagram 帐户,并在 TikTok、X(以前的 Twitter)、LiveJournal 和 Blogspot 上识别出数百个更多帐户。 但那是一场四年前开始的宣传活动,产生的虚假信息是前人工智能时代的。

虚假信息是一场军备竞赛。 攻击者和防御者都得到了改进,但社交媒体的世界也发生了变化。 四年前,Twitter 是媒体的直接渠道,而该平台上的宣传是影响政治叙事的一种方式。《哥伦比亚新闻评论》的一项研究发现,大多数主要新闻媒体 使用俄罗斯的推文 作为党派观点的来源。 那个几乎每个新闻编辑都在阅读它,每个重要人物都在那里发帖的 Twitter 不复存在了。

许多宣传机构从 Facebook 转移到了 Telegram 和 WhatsApp 等消息平台,这使得它们更难被识别和删除。 TikTok 是一个较新的平台,由中国控制,更适合短小的、煽动性的视频——人工智能使这些视频更容易制作。 而当前涌现的生成式人工智能正在 连接到工具,这将使内容分发也变得更加容易。

生成式人工智能工具还允许新的生产和分发技术,例如大规模的低级别宣传。 想象一下社交媒体上一个新的 AI 驱动的个人帐户。 在大多数情况下,它的行为很正常。 它发布关于其虚假日常生活的帖子,加入兴趣小组,评论别人的帖子,并且通常表现得像一个普通用户。 偶尔,并不经常,它会说——或放大——一些政治性的东西。 这些 人格机器人,正如计算机科学家拉塔尼娅·斯威尼所称的那样,它们自身的影响力微乎其微。 但如果复制成千上万甚至数百万个,它们将产生更大的影响力。

人工智能增强的虚假信息

这只是一种情景。 俄罗斯、中国和其他地方负责选举干预的军官很可能让他们的最优秀人员思考其他情景。 而且他们的策略可能比 2016 年时要复杂得多。

像俄罗斯和中国这样的国家有在较小国家测试网络攻击和信息行动的历史,然后再大规模推广。 当这种情况发生时,重要的是能够识别这些策略的特征。 反击新的虚假信息宣传活动需要能够识别它们,而识别它们需要现在就寻找它们并对其进行编目。

在计算机安全领域,研究人员认识到,分享攻击方法及其有效性是构建强大防御系统的唯一途径。 同样的思路也适用于这些信息宣传活动:研究人员越是研究在遥远国家使用的技术,他们就越能更好地捍卫自己的国家。

人工智能时代的虚假信息宣传活动可能比 2016 年时要复杂得多。 我认为美国需要采取措施来识别和确定人工智能生成的 台湾宣传 的特征,在那里,一位总统候选人声称一段深度伪造的录音已经诽谤了他,以及其他地方的宣传。 否则,当它们来到这里时,我们将无法看到它们。 不幸的是,研究人员反而正在受到 针对骚扰

也许这一切最终会好起来的。 在生成式人工智能时代,一些重要的民主选举没有出现重大的虚假信息问题:阿根廷的初选、厄瓜多尔的第一轮选举以及泰国、土耳其、西班牙和希腊的全国选举。 但是,我们越早知道会发生什么,我们就越能更好地应对即将到来的事情。

本文最初发表于 The Conversation。 阅读 原文

© . All rights reserved.