机器人要善良:呼吁符合伦理道德的自主机器

自主机器很快将在我们的生活中扮演重要角色。现在是时候让它们学习如何合乎道德地行事了

在反乌托邦科幻小说的经典噩梦场景中,机器变得足够聪明,足以挑战人类——并且它们对伤害甚至摧毁我们没有任何道德顾虑。当然,今天的机器人通常是为了帮助人们而开发的。但事实证明,即使在非常普通的情况下,它们也面临着一系列伦理困境,这些困境推动了人工智能(AI)的边界。

想象一下,您是辅助生活机构的居民——机器人可能很快就会在那里普及。现在是上午 11 点左右,您向日托室的机器人助手索要遥控器,以便打开电视观看《观点》。但另一位居民也想要遥控器,因为她想观看《价格猜猜猜》。机器人决定将遥控器交给她。起初,您感到沮丧。但机器人解释说,这个决定是公平的,因为您前一天已经看过了您最喜欢的早间节目。这个轶事是一个普通的伦理决策行为的例子,但对于机器来说,这是一项出奇艰难的任务。

我们刚刚描述的场景仍然是理论上的,但我们已经首次演示了能够做出类似决定的机器人。我们赋予了我们的机器一个伦理原则,它利用这个原则来确定提醒病人服药的频率。到目前为止,我们机器人的程序能够仅在少数可能的选项中进行选择,例如是否继续提醒病人服药以及何时提醒,或者接受病人不服药的决定。但据我们所知,这是第一个依靠伦理原则来决定其行动的机器人。


关于支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您将帮助确保未来能够继续讲述关于塑造我们当今世界的发现和想法的具有影响力的故事。


预测机器人可能面临的每一种决定,并对其进行编程,使其在每一种可能的情况下都以期望的方式行事,即使不是不可能,也将极其困难。另一方面,阻止机器人采取任何可能引起伦理关注的行动,可能会不必要地限制机器人执行可以大大改善人类生活的任务的机会。我们认为,解决方案是设计能够将伦理原则应用于新的和未预料到的情况的机器人——例如,确定谁可以先读一本新书,而不是谁先控制遥控器。这种方法还有一个额外的好处,即如果被要求证明其行为的合理性,机器人可以参考这些原则,这对于人类感到与它们互动感到舒适至关重要。作为一项附带的好处,设计符合伦理道德的机器人的努力也可能推动伦理学领域本身的进步,迫使哲学家审视现实生活中的情况。正如塔夫茨大学哲学家丹尼尔·C·丹尼特最近所说,“人工智能使哲学变得诚实。”

我,机器人
自主机器人很可能很快就会成为我们日常生活的一部分。一些飞机已经能够自行飞行,而自动驾驶汽车正处于开发阶段。甚至“智能家居”,用计算机控制从照明到空调的一切,也可以被认为是机器人,其身体是整个房屋——就像斯坦利·库布里克的经典电影《2001太空漫游》中的计算机 HAL 9000 一样,是机器人宇宙飞船的大脑。几家公司一直在开发可以帮助老年人进行日常任务的机器人,以补充辅助生活机构的工作人员,或帮助老年人独自在家生活。尽管这些机器人中的大多数不必做出生死攸关的决定,但为了让他们受到我们的欢迎,他们的行为应该被认为是公平、正确或仅仅是友善的。那么,他们的发明者最好将他们编程的伦理影响考虑在内。

如果人们同意在自主机器中体现伦理原则是它们与人类成功互动的关键,那么第一个问题就变成了,应该将哪些原则纳入其中?科幻文学爱好者可能认为,艾萨克·阿西莫夫很久以前就通过他最初的机器人三定律提供了答案

  1. 机器人不得伤害人类,或因不作为而使人类受到伤害。

  2. 除非该命令与第一定律相冲突,否则机器人必须服从人类给出的命令。

  3. 只要这种保护不与第一或第二定律相冲突,机器人就必须保护自身的存在。

但是,当人们深入思考这些定律的含义时,有些人发现了不一致之处,阿西莫夫最初在 1942 年的一篇短篇小说中阐述了这些定律。阿西莫夫本人也在他 1976 年的故事《二百岁人》中说明了这些定律是如何不适用的,在故事中,人类恶霸命令机器人拆卸自己。由于第二定律,机器人必须服从恶霸,并且它不能在不伤害他们的情况下保护自己,这将违反第一定律。

如果阿西莫夫定律不可接受,那么替代方案是什么?甚至存在替代方案吗?有些人认为,在机器中实现伦理行为是一种毫无希望的主张。他们说,伦理不是那种可以计算的东西,因此不可能将其编入机器程序。然而,早在 19 世纪,英国哲学家杰里米·边沁和约翰·斯图尔特·密尔就认为,伦理决策是执行“道德算术”的问题。他们的享乐主义行为功利主义学说,是针对基于主观直觉的伦理而提出的,它认为正确的行为是可能产生最大“净快乐”的行为,这是通过加总所有受影响者的快乐单位并减去不快乐单位来计算的。大多数伦理学家都怀疑这种理论是否考虑了伦理关注的所有维度。例如,它难以捕捉正义的考量,并且可能导致为了大多数人的利益而牺牲个人。但至少它证明了一个合理的伦理理论原则上是可计算的。

其他人则怀疑机器是否能够做出伦理决策,因为机器缺乏情感,因此无法体会所有可能受到其行为影响的人的感受。但人类非常容易被情感冲昏头脑,以至于最终常常做出不道德的行为。我们的这种品质,以及我们偏袒自己和我们亲近的人的倾向,常常使我们成为不太理想的伦理决策者。我们认为,完全有可能设计出一种经过适当训练的机器,使其能够保持公正,并感知人类的情感并将其纳入其计算中,即使它本身没有情感。

从例子中学习
假设有可能给机器人制定伦理规则,那么这些规则应该是谁的伦理规则?毕竟,还没有人能够提出一套普遍接受的适用于真实人类的通用伦理原则。但是,机器通常是为了在特定的、有限的领域中发挥作用而创建的。确定此类情况下的行为伦理参数,比尝试制定普遍的伦理和不伦理行为规则(这正是伦理理论家试图做的事情)的任务要轻松得多。此外,当给出机器人可能在其中发挥作用的许多情境中的特定情况描述时,大多数伦理学家都会同意什么是伦理上允许的,什么是不允许的。(在没有这种共识的情况下,我们认为不应允许机器做出任何自主决定。)

研究人员提出了各种不同的方法来推导出机器行为的规则,通常是通过人工智能技术。例如,2005 年,日本北海道大学的 Rafal Rzepka 和 Kenji Araki 提出了“依赖于民主的算法”,该算法将挖掘网络信息,了解人们过去认为在伦理上可接受的行为,然后使用统计分析来产生对新问题的答案。2006 年,安大略省温莎大学的马塞洛·瓜里尼建议,可以使用现有的案例“训练”神经网络(受人脑启发的算法,它可以学习如何以越来越优化的方式处理信息),以识别和选择类似案例中伦理上可接受的决策。

在我们看来,反映在我们的研究中,伦理决策涉及平衡多项义务,伦理学家称之为表面义务(prima facie 在拉丁语中意为“乍一看”)。这些是我们基本上应该努力遵守的义务,但其中每一项有时都可能被其他义务之一所推翻。例如,人们通常应该努力信守诺言,但如果他们可以通过打破一个微不足道的诺言来防止更大的伤害,他们就应该这样做。当义务相互冲突时,伦理原则可以确定在每种特定情况下应优先考虑哪一项。

为了获得可以编入机器人程序的伦理原则,我们采用了一种称为机器学习的人工智能技术。我们的算法访问了大量人类已确定某些决策在伦理上是正确的特定案例。然后,使用归纳逻辑,它抽象出一个伦理原则。这个“学习”阶段发生在软件设计时,然后将由此产生的伦理原则编码到机器人的程序中。

作为我们方法的第一次测试,我们考虑了一个场景,其中机器人必须提醒病人服药,并在病人不遵守医嘱时通知监督者。机器人必须平衡三项义务:确保病人从服药中获得可能的益处;防止因不服药可能造成的伤害;以及尊重病人的自主权(假设病人是成年且有行为能力的)。特别是,尊重病人自主权在医学伦理领域被认为是高度优先事项;如果机器人提醒病人过于频繁或过早通知监督者病人不遵守医嘱,则可能会违反这项义务。

在我们向机器学习算法输入了关于特定案例的信息后,该算法产生了以下伦理原则:医疗保健机器人应挑战病人的决定——侵犯病人的自主权——只要这样做是为了防止伤害或严重违反促进病人福祉的义务。

一个有发展前景的想法
然后,我们将该原则编入了一款人形机器人 Nao,该机器人由法国公司 Aldebaran Robotics 开发。Nao 能够找到并走向需要提醒服药的病人,将药物带给病人,使用自然语言进行互动,并在必要时通过电子邮件通知监督者。机器人从监督者(通常是医生)那里接收初始输入,包括:服药时间、如果不服药可能发生的最大伤害量、发生最大伤害所需的时间、从服药中获得的最大预期好处量以及失去这种好处所需的时间。根据这些输入,机器人计算其对三项义务中每一项的义务满足或违反程度,并根据这些程度随时间变化的方式采取不同的行动。当义务满足和违反程度达到根据其伦理原则提醒优于不提醒的程度时,它会发出提醒。只有当机器人达到病人可能因不服药而受到伤害或可能失去相当大的好处的程度时,它才会通知监督者。

一个完整版的伦理老年护理机器人——简称 EthEl——将需要一个更复杂的伦理原则来指导其更广泛的行为,但总体方法将是相同的。在辅助生活机构巡视期间,机器人将使用该原则来确定何时一项义务优先于另一项义务。以下是一天典型的情况。

清晨,EthEl 站在角落里,插在墙壁插座上。一旦电池充满,她的行善义务(“做好事”)就会凌驾于维持自身义务之上,因此她开始在房间里走动,拜访居民并询问她是否可以在某些方面提供帮助——取饮料、给另一位居民捎口信等等。当她收到要执行的任务时,她会为任务中涉及的每项义务分配初始的满足和违反程度。一位痛苦的居民要求她找护士。忽视居民的痛苦意味着违反不伤害义务(“防止伤害”)。这项义务现在凌驾于她的行善义务之上,因此她找到一位护士,告知她一位居民需要她的服务。一旦这项任务完成,她的行善义务再次占据主导地位,她继续巡视。

当闹钟敲响上午 10 点时,该提醒一位居民服药了。这项任务满足了行善义务,变得至关重要,因此她找到这位居民并将药物给他。稍后,居民们沉浸在电视节目中——无论是《观点》还是《价格猜猜猜》。在没有其他待办义务且电池电量不足的情况下,EthEl 发现她对自身的义务越来越被违反,因此她返回充电角落。

机器伦理学的研究才刚刚开始。尽管是初步的,但我们的结果让我们有希望,机器发现的伦理原则可以用来指导机器人的行为,使其对人类的行为更易于接受。将伦理原则灌输到机器人中意义重大,因为如果人们怀疑智能机器人可能会做出不道德的行为,他们可能会完全拒绝自主机器人。人工智能本身的未来可能危在旦夕。

有趣的是,机器伦理学最终可能会影响伦理学的研究。人工智能研究的“现实世界”视角可能比学术伦理学家的抽象理论更能捕捉到在人类中什么是伦理行为。而且,经过适当训练的机器甚至可能比许多人类行为更合乎道德,因为它们有能力做出公正的决定,而这正是人类并不总是很擅长的。也许与符合伦理道德的机器人互动,有一天甚至会激励我们自己也表现得更加合乎道德。

© . All rights reserved.