当美军在2003年入侵伊拉克时,他们打了一场传统的人与人之间的战争。从那时起,机器人加入了战斗。在伊拉克和阿富汗,数千个“无人”系统正在拆除路边的简易爆炸装置,首次窥探狙击手的巢穴,并向塔利班的藏身之处发射导弹。机器人正像一种新的机电外星物种刚刚降落在我们的星球上一样涌入战场。
战争技术的进步速度超过了旨在限制其使用的国际法体系,这并非首次。在第一次世界大战期间,大炮向毫无防备的城市发射化学武器,飞机向城市投掷炸弹。直到后来,各国才就瞄准小学旁边的军工厂是否可以接受达成一致意见。
今天正在发生类似的事情,而且可能产生更深刻和令人不安的后果。正如布鲁金斯学会分析师P. W. Singer在《机器战争》中所描述的那样,机器人的兴起导致了可怕的前景,即国家发动战争的规则手册变得过时。国家之间的武装冲突是残酷的,但至少它是按照一套既基于国际法又基于军事纪律要求的规则进行的。在激烈的战斗中,并非一切都可以为所欲为。“这些规则当然并非总是被遵守,但它们的存在正是将战争中的杀戮与谋杀区分开来,并将士兵与罪犯区分开来的原因,”辛格在他最近关于军事机器人革命的畅销书《Wired for War》中写道。
支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保有关塑造我们当今世界的发现和想法的具有影响力的故事的未来。
当机器人投入战争时,这些规则被拉伸到了极限。法律和伦理问题比比皆是。当捕食者导弹击中错误目标时,谁来负责?来自失控无人机的导弹已经在伊拉克、阿富汗和巴基斯坦造成多达1000名平民死亡。责任应该由在中东地区识别“感兴趣目标”的现场指挥官承担吗?还是应该将责任分摊给驻扎在拉斯维加斯附近军事基地的“远程飞行员”,后者从7000英里外发动了袭击?那么,一个可能犯了导致误射的编程错误的软件工程师呢?
考虑远程战争的交战规则提出了一系列超现实的问题。内华达州的远程操作员在下班后去沃尔玛或女儿的足球比赛的路上,是否仍然是合法的战斗人员——换句话说,是合法的敌人目标?战士和平民之间日益模糊的界限是否会引来对美国本土住宅和学校的袭击?
遥控机器人将继续存在,并且可以制定规则来规范其使用。但更严重的威胁来自半自主机器,人类对其仅保留最后一刻的否决权。这些系统只需进行软件升级即可实现完全自主运行。人形机器人能够自主搜索和杀戮(终结者的阴影)的前景应该让我们所有人深思。自动驾驶仪自行决定射击对象违反了国际人道主义法中“人道”的部分,该部分承认某些武器是如此令人憎恶,以至于应该被消除。
有些人可能会称禁止自主机器人为天真,或者抱怨这会束缚士兵面对非正规战争的手脚。但是,尽管机器人具有明显的战术优势,但它们也带来了沉重的战略代价。战争法不是慈善行为,而是利己行为;如果化学武器和生物武器被广泛使用,美国将会被削弱,而不是被加强,机器人也是如此。它们是抵消常规军事力量的一种廉价方式,其他国家和黎巴嫩真主党等组织已经在部署它们。美国可能并不总是这项技术的领导者,并且最好从强势地位出发谈判限制其使用。我们永远无法将精灵放回瓶子里,但阻止这项技术的进一步发展可以限制损害。
最适合致力于禁令的组织是红十字国际委员会,日内瓦公约的守护者。一个好的起点是召开一次峰会,在与化学和生物制剂相同的框架内审议武装自主机器人。整个科学界应该像普格沃什运动致力于核武器控制一样,参与到这个问题中来。现在是采取措施确保机器战争仍然只是科幻噩梦的时候了。