致命人工智能武器正在兴起。接下来会怎样?

致命自主武器可能会减少平民伤亡,但也可能犯下灾难性错误

Drone in air with a bomb attached.

2023年5月,乌克兰军队在一个位于利沃夫地区的特殊学校学习驾驶装有炸弹的无人机,如图所示。

宝拉·布朗斯坦/盖蒂图片社

俄罗斯和乌克兰之间的冲突中,视频片段显示无人机深入俄罗斯境内,距离边境超过1000公里,摧毁了石油和天然气基础设施。专家表示,很可能人工智能(AI)正在帮助引导无人机到达目标。对于这类武器,无需人员扣动扳机或做出最终的引爆决定。

包括配备人工智能的无人机在内的致命自主武器(LAWs)的研发正在兴起。例如,美国国防部迄今已为其“复制者”计划拨款10亿美元,该计划旨在建立一支小型武器化自主车辆 fleet。实验性的潜艇、坦克和舰艇已经制造出来,它们使用人工智能来驾驶和射击。市面上可购买的无人机可以使用人工智能图像识别来锁定目标并将其炸毁。LAW 的运行不需要人工智能,但这项技术增加了速度、精确性和规避防御的能力。一些观察家担心,未来任何派别都可能派遣成群廉价的人工智能无人机,使用面部识别技术来消灭特定人员。

战争是人工智能相对简单的应用。“对于一个系统来说,找到一个人并杀死他,其技术能力远比开发一辆自动驾驶汽车容易。这只是一个研究生项目,”加州大学伯克利分校的计算机科学家、反对人工智能武器的著名活动家斯图尔特·罗素说。他帮助制作了一段 2017 年病毒式传播的视频,名为《杀戮机器人》,强调了可能的风险。


关于支持科学新闻业

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻业 订阅。通过购买订阅,您正在帮助确保未来能够继续报道关于塑造我们当今世界的发现和想法的具有影响力的故事。


人工智能在战场上的出现引发了研究人员、法律专家和伦理学家的辩论。一些人认为,人工智能辅助武器可能比人工制导武器更精确,有可能减少附带损害——例如平民伤亡和居民区破坏——以及士兵的伤亡人数,同时帮助弱势国家和群体自卫。另一些人则强调,自主武器可能会犯下灾难性错误。许多观察家对将目标锁定决策权交给算法存在普遍的伦理担忧。

多年来,研究人员一直在呼吁控制这种新威胁。现在,联合国已经迈出了关键一步。去年 12 月的一项决议将 LAWs 的议题列入了今年 9 月举行的联合国大会议程。联合国秘书长安东尼奥·古特雷斯去年 7 月表示,他希望在 2026 年之前禁止在没有人为监督的情况下运行的武器。哈佛大学法学院人权律师邦妮·多彻蒂说,在停滞不前的十年左右之后,将这个议题列入联合国议程意义重大。“外交进展缓慢,但这是一个重要的步骤,”她说。

专家表示,此举为各国就人工智能武器采取行动提供了第一个现实途径。但这说起来容易做起来难。这些武器引发了关于人类能动性、问责制以及官员应该在多大程度上将生死攸关的决定外包给机器的难题。

受到控制?

控制和规范武器使用的努力可以追溯到数百年前。例如,中世纪的骑士同意不使用长矛攻击对方的马匹。1675 年,交战中的法国和神圣罗马帝国同意禁止使用毒子弹。

今天,对武器的主要国际限制是通过联合国《特定常规武器公约》(CCW),这是一项 1983 年的条约,例如,它已被用于禁止致盲激光武器。

各种各样的自主武器至少已经存在了几十年,包括寻热导弹,甚至(取决于如何定义自主性)可以追溯到美国内战的压力触发地雷。然而,现在,人工智能算法的开发和使用正在扩展它们的能力。

自 2013 年以来,CCW 一直在正式调查人工智能增强型武器,但由于它需要国际共识才能通过法规——并且由于许多积极开发这项技术的国家反对任何禁令——进展一直缓慢。今年 3 月,美国主办了一次关于《负责任地军事使用人工智能和自主性政治宣言》的首次全体会议,这是一项平行的努力,强调自愿的最佳实践指南,而不是具有法律约束力的禁令。

部分问题在于对于 LAWs 究竟是什么缺乏共识。2022 年的一项分析发现,各国和组织(如北大西洋公约组织(NATO))至少提出了十几种自主武器系统的定义。罗素说,这些定义范围广泛,并且在人工智能方面显示出有限的共识,甚至是对人工智能的理解。

例如,英国表示,LAWs “能够理解更高级别的意图和指示”,而中国表示,这种武器可以“自主学习,以超出人类期望的方式扩展其功能和能力”。以色列声明:“我们应该远离机器发展、创造或自我激活的虚幻景象——这些应该留给科幻电影。” 德国将“自我意识”作为自主武器的必要属性——大多数研究人员认为,即使不是完全不可能,这种品质也远远超出了今天人工智能所能达到的水平。

“这有点意味着武器必须在早上醒来,并决定自行去攻击俄罗斯,”罗素说。

尽管需要制定更全面、具体和现实的 LAWs 定义,但一些专家表示,这可以稍后再做。“传统上在裁军法中,虽然这与直觉相反,但实际上他们通常在谈判中最后才进行定义,”多彻蒂说。一个工作定义通常足以启动该过程,并且可以帮助缓解最初反对行动的国家的反对意见。

人工智能的优势

根据南丹麦大学战争研究中心在欧登塞发布的2023 年分析,今天军队指挥官可以使用的由人工智能引导的自主武器相对粗糙——移动缓慢且笨拙的无人机,配备了足以炸毁自身及其目标的炸药。

这些“巡飞弹药”可以像模型飞机那么大,成本约为 5 万美元,并可携带几公斤炸药飞行 50 公里,足以摧毁车辆或杀死单个士兵。这些弹药使用车载传感器,监控光学、红外或射频以检测潜在目标。人工智能将这些传感器输入与预先指定的坦克、装甲车和雷达系统以及人类的轮廓进行比较。

观察家表示,这些自主炸弹相对于遥控无人机提供的最显著优势在于,如果对方拥有干扰电子通信的设备,它们仍然可以工作。自主操作消除了远程操作员可能被敌人追踪并受到攻击的风险。

尽管有传言称,2020 年在利比亚,自主弹药杀死了战斗人员,但来自乌克兰冲突的报告巩固了人工智能无人机现在正在使用的观点。“我认为现在人们普遍接受,在乌克兰,他们已经转向完全自主武器,因为电子干扰非常有效,”罗素说。乌克兰军事指挥官亚罗斯拉夫·洪查尔等表示,该国“已经进行了完全机器人化的行动,无需人为干预”。

很难知道人工智能武器在战场上的表现如何,很大程度上是因为军方不发布此类数据。在去年 9 月英国议会的一次质询中,当被直接问及人工智能武器系统时,英国战略司令部副司令汤姆·科普林格-赛姆斯没有透露太多信息,只是说该国军方正在进行基准研究,以比较自主系统和非自主系统。“不可避免地,你想检查一下,与拥有十名图像分析师查看同一件事的旧式系统相比,这是否物有所值,”他说。

尽管现实世界的战场数据稀少,但研究人员指出,人工智能具有卓越的处理和决策技能,从理论上讲,这提供了显著的优势。例如,在年度快速图像识别测试中,近十年来,算法的性能一直优于人类专家的表现。去年的一项研究表明,人工智能可以比人类专家更快、更全面地在科学论文中找到重复的图像。

2020 年,一个人工智能模型在一系列模拟空战中击败了一名经验丰富的 F-16 战斗机飞行员,这要归功于“人类飞行员无法匹敌的积极而精确的机动”。然后在 2022 年,中国军事研究人员表示,一架人工智能驱动的无人机在与一架由地面人员远程操控的飞机的对抗中胜出。人工智能飞机飞到了对手的尾部,并进入了可以将其击落的位置。

华盛顿特区战略与国际研究中心的安保分析师扎克·卡伦伯恩说,无人机人工智能可以就“如何执行特定机动、与对手的飞行距离以及攻击角度做出非常复杂的决策”。

不过,卡伦伯恩说,目前尚不清楚人工智能武器能提供什么显著的战略优势,尤其是如果双方都能获得它们的话。“一个很大的问题不是技术本身,而是军队如何使用这项技术,”他说。

从理论上讲,人工智能还可以用于战争的其他方面,包括编制潜在目标清单;媒体报道引发了人们的担忧,例如,以色列使用人工智能创建了一个包含数万名疑似武装分子姓名的数据库,尽管以色列国防军在一份声明中表示,它不使用“识别恐怖分子行动人员”的人工智能系统。

底线

通常用于评估自主武器伦理的一个关键标准是它们的可靠性以及可能出错的程度。例如,2007 年,英国军方匆忙重新设计了其自主的“硫磺石”导弹,以用于阿富汗,原因是担心它可能会将一辆载有学童的公共汽车误认为是一卡车叛乱分子。

卡伦伯恩说,人工智能武器可以相当容易地锁定红外或强大的雷达信号,将它们与数据库进行比较,以帮助判断是什么。“这效果相当好,因为走在街上的小孩子不会在他的背包里携带大功率雷达,”卡伦伯恩说。这意味着,当人工智能武器在战场上检测到传入的雷达信号源时,它可以开火,而几乎没有伤害平民的风险。

但视觉图像识别更成问题,他说。“当它基本上只是一个像摄像头这样的传感器时,我认为你更容易出错,”卡伦伯恩说。尽管人工智能擅长识别图像,但它并非万无一失。他说,研究表明,对图片进行微小的改动可能会改变神经网络对它们的分类方式——例如,导致它们将飞机与狗混淆。

伦理学家划分的另一个可能的界限是武器的使用方式:例如,是攻击还是防御。复杂的自主雷达制导系统已经用于在海上防御来自快速来袭目标的舰船。英国兰卡斯特大学研究人与机器之间互动的社会学家露西·萨奇曼说,伦理学家对这种类型的自主武器更放心,因为它针对的是军械而不是人,而且因为这些信号很难被错误地归因于其他任何东西。

研究人员和军方普遍提出的一项原则是,自主武器应该有“人在回路中”。但是,人员应该或必须在何处以及如何参与仍然存在争议。包括萨奇曼在内的许多人通常将这个想法解释为意味着人类操作员必须在授权打击之前目视验证目标,并且必须能够在战场条件发生变化时(例如,如果平民进入战区)取消打击。但它也可能意味着人类只需在武器发射之前编程输入目标的描述——一种称为“发射后不管”的功能。

一些系统允许用户根据情况在完全自主模式和人工辅助模式之间切换。萨奇曼和其他人说,这还不够好。“要求人类禁用自主功能并不构成有意义的控制,”她说。

完全自主性的概念也混淆了关于问责制的问题。“我们非常担心自主武器系统的使用会陷入问责制空白,因为显然,你不能让武器系统本身承担责任,”多彻蒂说。她补充说,让操作员对自主运行的系统的行为负责,在法律上也将具有挑战性,而且可以说是不公平的。

罗素建议“车载计算与发射电路之间不应有通信”。这意味着发射必须由远程操作员激活,并且永远不能由人工智能激活。

在 LAWs 的讨论中,至少有一点是(几乎)每个人似乎都同意的:即使是通常反对管制的国家,包括美国和中国,也表示自主代理,包括那些配备人工智能的代理,也不应在发射核武器的决策中发挥任何作用,罗素说。

然而,俄罗斯在这个问题上似乎更加谨慎。人们普遍认为,莫斯科已经重启了一项名为“周界”的冷战计划,该计划——至少在理论上——可以在没有人为监督的情况下对西方发动首次核打击。美国和中国在关于自主武器的各种会谈中提出了这个问题,许多人认为这可能会给俄罗斯带来改变其战略的压力。

监管系统

卡伦伯恩说,不幸的是,任何禁止使用 LAWs 的禁令都很难通过检查和观察来执行——这是通常用于其他受管制武器的经典“信任但验证”方法。

例如,对于核武器,有一个完善的现场检查和核材料审计系统。但对于人工智能来说,事情更容易隐藏或随时更改。“这可能就像简单地更改几行代码,说,好吧,现在机器可以决定去炸毁这个东西了。或者,你知道,删除代码,然后在军备管制检查员在那里时再放回去,”卡伦伯恩说。“这要求我们重新思考在武器系统和军备控制中如何考虑核查。”

卡伦伯恩说,检查可能不得不从生产时切换到事后。“这些东西会被击落。它们会被俘获。这意味着你可以进行检查并查看代码,”他说。

所有这些问题都将融入联合国大会今年 9 月开始的讨论中;奥地利还在 4 月底设立了一个先期会议,以帮助启动这些对话。多彻蒂说,如果到 9 月份有足够多的国家投票支持采取行动,那么联合国可能会成立一个工作组来阐明这些问题。

多彻蒂补充说,一项条约可能会在三年内达成,她在联合国 2017 年《禁止核武器条约》的谈判中发挥了关键作用。“以我的经验来看,一旦谈判开始,进展就会相对迅速。”

本文经许可转载,并于 2024 年 4 月 23 日首次发表

© . All rights reserved.