
以下文章经许可转载自The Conversation,这是一个报道最新研究的在线出版物。
如何阻止机器人伤害人类? 许多现有的机器人,例如工厂里组装汽车的机器人,当人类靠近时会立即关闭。 但是这种权宜之计不适用于自动驾驶汽车,因为自动驾驶汽车可能需要移动以避免碰撞,或者不适用于护理机器人,因为护理机器人可能需要接住跌倒的老人。 随着机器人即将成为我们的仆人、伙伴和同事,我们需要处理由此产生的日益复杂的情况,以及由此引发的伦理和安全问题。
支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道: 订阅。 通过购买订阅,您将帮助确保有关塑造我们当今世界的发现和想法的具有影响力的故事拥有未来。
科幻小说已经预见到了这个问题,并提出了各种潜在的解决方案。 最著名的是作家艾萨克·阿西莫夫的机器人三定律,该定律旨在防止机器人伤害人类。 但自 2005 年以来,我在赫特福德大学的同事和我一直在研究一个想法,这可能是一种替代方案。
我们认为,与其制定法律来限制机器人行为,不如赋予机器人权力,使其能够最大限度地增加其可采取行动的方式,以便它们能够为任何特定场景选择最佳解决方案。 正如我们在Frontiers上发表的一篇新论文中所述,这项原则可以构成一套新的通用机器人指南的基础,以尽可能确保人类的安全。
三定律
阿西莫夫的三定律如下:
机器人不得伤害人类,也不得因不作为而使人类受到伤害。
机器人必须服从人类的命令,除非这些命令与第一定律相冲突。
机器人必须保护自身的存在,只要这种保护不与第一或第二定律相冲突。
虽然这些定律听起来似乎合理,但许多论点已经证明了为什么它们是不充分的。 阿西莫夫自己的故事可以说对这些定律进行了解构,展示了它们如何在不同情况下反复失败。 大多数起草新指南的尝试都遵循类似的原则,即创建安全、顺从和稳健的机器人。
任何明确制定的机器人指南都存在一个问题,那就是需要将它们翻译成机器人可以使用的格式。 理解人类语言的全部范围及其所代表的经验,对于机器人来说是一项非常艰巨的任务。 广泛的行为目标,例如防止伤害人类或保护机器人的存在,在不同语境中可能意味着不同的事物。 坚持规则最终可能会使机器人无能为力,无法按照其创造者的期望行事。
我们提出的替代概念——赋能,代表着与无助相反的状态。 赋能意味着有能力影响局势,并且意识到自己可以做到。 我们一直在开发将这种社会概念转化为可量化和可操作的技术语言的方法。 这将赋予机器人保持其选择开放并以增加其对世界影响的方式行动的驱动力。
当我们尝试模拟机器人在各种场景中如何使用赋能原则时,我们发现它们通常会以令人惊讶的“自然”方式行事。 这通常只需要它们对现实世界如何运作进行建模,而不需要任何专门的人工智能编程来处理特定的场景。
但为了确保人们的安全,机器人需要努力维护或提高人类的赋能以及它们自身的赋能。 这本质上意味着具有保护性和支持性。 为某人打开锁着的门会增加他们的赋能。 约束他们会导致短期赋能的丧失。 而严重伤害他们可能会完全剥夺他们的赋能。 与此同时,机器人必须努力维护自身的赋能,例如确保它有足够的电力运行,并且不会被卡住或损坏。
机器人可以适应新的情况
使用这种通用原则而不是预定义的行为规则,将允许机器人考虑情境并评估以前没有人预想到的场景。 例如,机器人通常会避免推人,但仍然能够将人推出坠落物体的路径,而不是总是遵循“不要推人”的规则。 人类可能仍然会受到伤害,但会比机器人不推他们受到的伤害要小。
在根据阿西莫夫的几个故事改编的电影《我,机器人》中,机器人创建了一个压迫性的状态,旨在通过限制人类并将他们“保护”起来,最大限度地减少对人类的总体伤害。 但我们的原则会避免这种情况,因为它会导致人类赋能的丧失。
虽然赋能为思考安全的机器人行为提供了一种新方法,但我们仍然需要做大量工作来扩展其效率,以便它可以轻松地部署在任何机器人上,并在各个方面转化为良好和安全的行为。 这提出了一个非常困难的挑战。 但我们坚信,赋能可以引导我们找到一个切实可行的解决方案,以解决如何控制机器人行为以及如何在最朴素的意义上保持机器人“合乎道德”的持续且备受争议的问题。
本文最初发表于The Conversation。 阅读原始文章。