在人工智能成为热门话题之前,计算机科学家亨利·利伯曼邀请我去麻省理工学院参观他团队的工作。亨利痴迷于人工智能缺乏常识的想法。因此,他和他的同事凯瑟琳·哈瓦西和罗宾·斯皮尔一起,一直在一个网站上收集常识性陈述。
常识性陈述是对人类来说显而易见,但机器难以理解的事实。 它们是诸如“水是湿的”或“爱是一种感觉”之类的事情。 它们也是人工智能的一个痛点,因为学者们仍在努力理解为什么机器在常识推理方面挣扎。 那天,亨利急于向我展示一张图表,其中爱、水或感觉等词是根据他们的常识语料库中的数据组织的。 他向我展示了一个使用称为主成分分析的技术绘制的图,这是一种确定最能解释任何类型数值数据变化的轴的方法。
“应用于常识知识,”他说,“这就像试图找到一个数学答案来解答古老的哲学问题:人类知识究竟是关于什么的?”
支持科学新闻报道
如果您喜欢这篇文章,请考虑支持我们屡获殊荣的新闻报道,方式是 订阅。 通过购买订阅,您正在帮助确保有关当今塑造我们世界的发现和想法的具有影响力的故事的未来。
因此,我问他轴是什么,他邀请我猜。
“我不知道,”我说。“大还是小? 活的还是死的?”
“不,”他回答。“好还是坏。”
事后看来,这个事实似乎很明显。 每天我们都使用道德判断作为认知和沟通的捷径。 我们谈论“好”和“坏”天气。 我们寻找“更好”的工作或电脑。 我们欣赏“好”的音乐,避免“坏”的葡萄酒。 但是,虽然我们理性地理解袜子上的洞并不不道德,但我们常常忍不住滥用道德化推理的便捷捷径。 亨利的图表证明,普遍的道德化在我们语言中很普遍,并且这种普遍的道德化隐含在常识推理中。
今天,许多道德化并非针对错误的袜子,而是针对人工智能以及创造人工智能的人。 往往这种愤怒是合理的。 人工智能已牵涉到错误逮捕、有偏见的累犯评分以及多起涉及照片分类错误或性别刻板印象翻译的丑闻。 在很大程度上,人工智能社区已经听取了意见。 今天,人工智能研究人员充分意识到这些问题,并正在积极努力解决这些问题。
但是,随着尘埃落定,值得不仅要问人工智能是“好”还是“坏”,还要问这些判断事件教会了我们什么关于我们的道德直觉。 毕竟,人工智能伦理是关于我们人类的,因为我们是做出判断的人。
在过去的几年里,我和我的团队一起进行了数十项实验,成千上万的美国人对人类和机器的行为做出了反应。 这些实验包括可以呈现为人类或机器行为的场景,例如挖掘机意外挖开坟墓或海啸警报系统未能警报沿海城镇。 这些比较使我们能够超越人类判断人工智能的方式,而是专注于我们对机器的判断与我们对人类的判断的比较。
这种差异可能看起来很微妙,但它迫使我们在更现实的参考框架中判断机器。 我们倾向于将人工智能与完美进行比较,而不是将其与我们对人类执行相同操作并产生相同结果的反应进行比较。
那么,这些实验教会了我们什么?
即使是最初的数据点也表明,人们对人类和机器的反应并不相同。 例如,在意外情况下,尤其是当意外造成身体伤害时,人们对机器的宽容度低于对人类的宽容度。
但是,由于我们有数千个数据点,我们可以超越轶事观察。 因此,我们决定构建一个统计模型,解释人们如何判断人类和机器。 该模型预测了人们如何根据伤害和感知意图对场景进行评分,以道德错误程度来衡量。
.png?w=786)
致谢:塞萨尔·A·伊达尔戈
令我们惊讶的是,该模型表明,人们不仅对人类的评判不如对机器的评判那么严厉,而且我们使用了不同的道德哲学来评判他们。 附近的图表总结了这一发现。 蓝色平面显示了人们如何平均评判其他人。 红色平面显示了人类如何平均评判机器。
您可以清楚地看到,这些平面不是平行的,并且红色平面和蓝色平面之间存在旋转。 这是因为,在判断机器时,人们似乎主要关心场景的结果。 在这种情况下,是感知到的伤害程度。 这就是为什么红色平面几乎完全沿着伤害维度增长。 但是当人们评判其他人(蓝色平面)时,我们发现了一个曲率。 这次,增长是沿着对角线的,代表了伤害和感知意图之间的相互作用(技术上是两者的乘积)。 这解释了为什么机器在意外情况下受到更严厉的评判; 人们对评判机器采取结果主义的方法,其中意图无关紧要,但对人类则不然。
这个简单的模型引导我们得出一个有趣的结论,一个经验原则,支配着人们区别于人类来评判机器的方式。 一个最简单的形式是:“人们根据意图评判人类,根据结果评判机器。”
但是,这些实验教会了我们什么关于我们的道德直觉?
首先,它们教会我们,我们的道德直觉远非固定不变。 我们可能会告诉自己我们是有原则的人,但事实是我们会根据我们评判的对象或事物做出不同的反应。 这种道德上的反复无常超越了我们评判人类和机器的方式。
例如,人们对出于政治动机的行为的道德判断取决于被指控犯错的行为者是否在政治上与他们的观点保持一致。
在一项最近的研究中,人们对看到一名学生在抗议活动中扔玻璃瓶的反应因该学生被认定为“反法西斯运动”或“爱国者运动”的成员而异。 正如您可能预期的那样,当学生的政治身份与他们的政治身份相反时,受访者对该学生的反应更为强烈。 然而,同一项研究也表明,当违规行为涉及非政治场景时,例如室内吸烟或酒后驾车,则未观察到这种效应。 因此,我们出于政治动机的判断不会促使我们不分青红皂白地反复无常,而只是在特定情况下才会如此。
第二个教训是,我们的道德反复无常可能超越简单地偏袒一个群体而不是另一个群体。 如果人们只是偏袒人类而不是机器,那么红色平面和蓝色平面本应是平行的。 但它们不是。 这意味着人们不仅仅是偏袒人类而不是机器。 我们对人类和机器的评判不同。 与我们评判机器的结果主义道德相比,我们对我们的人类同胞应用了更康德式或义务论的道德(关于手段而不是目标)。
但可能最重要的教训是,我们可以通过使用旨在教导机器的技术来了解一些关于人类道德的东西。 在我们的案例中,我们通过构建一个连接道德判断不同方面的简单模型来做到这一点。 在亨利、凯瑟琳和罗宾的案例中,我们通过使用流行的“降维技术”了解了一些关于常识道德的东西。
在亨利告诉我第一个维度是“好与坏”之后,他让我猜第二个轴是什么。 “容易与困难,”他说。“在第一近似下,所有常识知识都与什么是好或坏以及什么是容易或难做有关。 其余的只是噪音。”