
以下文章经允许转载自 The Conversation,这是一个涵盖最新研究的在线出版物。本文已由作者为《大众科学》修改,可能与 原文不同。
组织机构是否可以利用像 ChatGPT 这样的人工智能语言模型来诱导选民以特定的方式行事?
关于支持科学新闻
如果您喜欢这篇文章,请考虑订阅以支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保有关当今塑造我们世界的发现和想法的具有影响力的故事的未来。
参议员乔希·霍利在 2023 年 5 月 16 日美国参议院关于人工智能的听证会上向 OpenAI 首席执行官山姆·奥特曼提出了这个问题。奥特曼回答说,他确实担心有些人可能会使用语言模型来操纵、说服选民并与他们进行一对一的互动。
以下是奥特曼可能设想/考虑到的情景:想象一下,不久之后,政治技术人员开发出一种名为 Clogger 的机器——一个黑箱中的政治竞选活动。Clogger 不懈地追求一个目标:最大化其候选人(购买 Clogger Inc. 服务的竞选活动)在选举中获胜的机会。
虽然像 Facebook、Twitter 和 YouTube 这样的平台使用人工智能的形式来让用户在他们的网站上花费更多时间,但 Clogger 的人工智能将有一个不同的目标:改变人们的投票行为。
Clogger 的工作原理
作为研究技术与民主交叉点的政治科学家和法学学者,我们认为,像 Clogger 这样的东西可以利用自动化来大幅提高自 2000 年代初以来政治竞选活动使用的行为操纵和微定位技术的规模,并可能提高其有效性。正如广告商现在利用您的浏览和社交媒体历史来单独定位商业和政治广告一样,Clogger 会关注您——以及数亿其他选民——个人。
与目前最先进的算法行为操纵技术相比,它将提供三个进步。首先,它的语言模型会生成专门为您量身定制的消息——文本、社交媒体和电子邮件,可能还包括图像和视频。广告商有策略地投放相对较少的广告,而像 ChatGPT 这样的语言模型可以在整个竞选过程中为您个人生成无数独特的消息——为其他人生成数百万条消息。
其次,Clogger 将使用一种称为强化学习的技术来生成越来越有可能改变您投票的消息。强化学习是一种机器学习的试错方法,计算机在其中采取行动并获得有关哪些行动效果更好的反馈,以便学习如何实现目标。能够下围棋、国际象棋和许多电子游戏比任何人类都更好的机器都使用了强化学习。
最后,在整个竞选过程中,Clogger 的消息可能会不断演变,以考虑您对先前消息的回复以及它在改变他人想法方面所了解到的信息。Clogger 会随着时间的推移与您——以及数百万其他人——进行动态的“对话”。Clogger 的消息类似于跟踪您在不同网站和社交媒体上的广告。
人工智能的本质
还有三个值得注意的特性——或者说是漏洞。
首先,Clogger 发送的消息可能不一定与政治相关。该机器的唯一目标是最大化选票份额,并且它可能会设计出任何人类竞选者都不会考虑到的实现此目标的策略。
一种可能性是向可能的对手选民发送有关他们在体育或娱乐方面的非政治热情的信息,以掩盖他们收到的政治信息。另一种可能性是发送令人反感的消息——例如,定时发送与对手消息重合的失禁广告。另一种可能性是操纵选民的社交媒体群组,让人感觉他们的家人、邻居和朋友都支持它的候选人。
其次,Clogger 不关心真相。事实上,它无法知道什么是真,什么是假。语言模型“幻觉”对于这台机器来说不是问题,因为它的目标是改变您的投票,而不是提供准确的信息。
最后,由于它是一种黑箱型人工智能,因此人们无法知道它使用哪些策略。
Clogocracy(Clogger统治)
如果共和党总统竞选活动在 2024 年部署 Clogger,民主党竞选活动可能会被迫采取类似的措施,也许会使用类似的机器。称之为 Dogger。如果竞选经理认为这些机器有效,那么总统竞选很可能会变成 Clogger 对阵 Dogger,而获胜者将是更有效的机器的客户。
最终获胜的内容将来自一个只关注胜利,没有自己政治思想的人工智能,而不是来自候选人或政党。从这个非常重要的意义上讲,赢得选举的将是一台机器而不是一个人。选举将不再是民主的,即使所有普通的民主活动——演讲、广告、消息、投票和计票——都已发生。
通过人工智能选举产生的总统可能会走两条路中的一条。他或她可以使用选举的幌子来推行共和党或民主党的政策。但是,由于政党思想可能与人们投票的原因关系不大——Clogger 和 Dogger 不关心政策观点——总统的行为不一定反映选民的意愿。选民会被人工智能操纵,而不是自由选择自己的政治领导人和政策。
另一条路是总统推行该机器预测将最大限度地提高连任机会的消息、行为和政策。在这条道路上,总统除了维持权力之外,没有特定的纲领或议程。总统在 Clogger 的指导下所采取的行动最有可能操纵选民,而不是服务于他们的真正利益,甚至总统自己的意识形态。
避免 Clogocracy(Clogger统治)
如果候选人、竞选活动和顾问都放弃使用此类政治人工智能,则可以避免人工智能操纵选举。我们认为这是不太可能的。如果开发出在政治上有效的黑箱,竞争压力将使它们的使用几乎不可抗拒。事实上,政治顾问很可能认为使用这些工具是他们帮助候选人获胜的职业责任所要求的。一旦一个候选人使用这种有效的工具,就很难指望对手通过单方面解除武装来抵抗。
加强隐私保护将有所帮助。Clogger 将依赖于访问大量个人数据,以便定位个人、制作量身定制的消息以说服或操纵他们,并在整个竞选过程中跟踪和重新定位他们。公司或政策制定者拒绝该机器的每一条信息都会降低其有效性。
另一个解决方案在于选举委员会。他们可以尝试禁止或严格监管这些机器。关于这种“复制品”言论,即使其本质上是政治性的,是否可以受到监管,存在着激烈的辩论。美国极端的言论自由传统导致许多主要学者认为它不能。
但是没有理由自动将《第一修正案》的保护范围扩展到这些机器的产品。国家很可能会选择赋予机器权利,但这应该是一个基于当今挑战的决定,而不是基于错误地假设詹姆斯·麦迪逊在 1789 年的观点旨在适用于人工智能。
欧盟监管机构正在朝着这个方向发展。政策制定者修改了欧洲议会关于其《人工智能法案》的草案,将“影响竞选活动中选民的人工智能系统”指定为“高风险”,并受到监管审查。
一个在宪法上更安全(如果规模较小)的步骤,已经在欧洲互联网监管机构和加利福尼亚州部分采用,是禁止机器人冒充人。例如,法规可能要求,当广告包含的内容是由机器而不是人生成时,竞选信息应附带免责声明。
这类似于广告免责声明要求——“由萨姆·琼斯国会委员会支付”——但经过修改以反映其人工智能来源:“此人工智能生成的广告由萨姆·琼斯国会委员会支付。”更强的版本可能需要:“此人工智能生成的消息由萨姆·琼斯国会委员会发送给您,因为 Clogger 预测这样做会将您投票给萨姆·琼斯的机会提高 0.0002%。”至少,我们认为选民有权知道何时是机器人在与他们交谈,并且他们也应该知道原因。
像 Clogger 这样的系统存在的可能性表明,通往人类集体无力感的道路可能并不需要某种超人的通用人工智能。它可能只需要那些过于热衷的活动家和顾问,他们拥有强大的新工具,能够有效地触动数百万人的众多痛点。
这是一篇观点和分析文章,作者或作者表达的观点不一定代表《大众科学》的观点。
本文最初发表于The Conversation。阅读原文。