人工智能已经在接管许多人类宁愿不做的人工、耗时的任务方面取得了重大进展。 然而,将工作移交给人工智能的责任和后果差异很大; 一些自主系统推荐音乐或电影; 其他系统则在法庭上提出量刑建议。 即使是更先进的人工智能系统也将越来越多地控制拥挤城市街道上的车辆,从而引发关于安全以及在不可避免的事故发生时关于责任的问题。
但是,关于人工智能对人类生存威胁的哲学论证,通常与实际构建和使用相关技术的现实相去甚远。 深度学习、机器视觉、自然语言处理——尽管关于这些人工智能和其他方面已经有很多著作和讨论,但人工智能仍处于发展的相对早期阶段。 专家们争论着自主、有自我意识的机器人失控的危险,即使计算机科学家们仍在苦苦思索如何编写机器视觉算法,以区分乌龟和步枪的图像。
尽管如此,在人工智能成为现代生活中真正普遍的力量之前,认真思考社会将如何管理人工智能显然非常重要。 哈佛大学肯尼迪政府学院的研究人员、学生和校友于 2014 年成立了未来社会,其目的正是为了促进关于如何管理新兴技术(尤其是人工智能)的国际对话。大众科学采访了尼古拉斯·埃科诺穆,他是未来社会人工智能倡议的高级顾问,也是H5的首席执行官,该公司开发软件来帮助律师事务所进行电子文档、电子邮件和数据库的审前分析,也称为电子取证。 埃科诺穆谈到了人类可能如何被认为是负有责任的(即使机器在发号施令),以及历史告诉我们关于社会有义务利用已被证明可以带来诸如提高安全性等好处的新技术。
关于支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道: 订阅。 通过购买订阅,您正在帮助确保有关塑造我们当今世界的发现和想法的具有影响力的故事的未来。
[以下是对话的编辑稿。]
您对人工智能的主要担忧是什么?
我是一名受过培训的政治科学家,也是一位倡导在法律系统中逐步采用人工智能的企业家。 因此,我坚信人工智能可以成为一种向善的力量。 但我认为它需要被治理,因为它确实会带来风险。 人们以不同的方式谈论风险,但我最感兴趣的风险是,将影响我们权利、自由或机会自由的决策权交给机器。 我们做出的决定不仅基于理性思维,还基于价值观、伦理、道德、同理心以及是非感——所有这些都是机器本身不具备的。 此外,人们可以为自己的决定负责,而机器则不能。
谁应该为人工智能的决策负责?
这就涉及到了能力问题。 在完全自主的人工智能系统中,你可以说:制造商。 但今天大多数人工智能都不是自主的; 它依赖于人类操作员。 如果该人没有足够的知识来正确使用人工智能,例如在医学、法律或金融服务领域做出重要决策时,该人是否应该为错误承担责任? 考虑 [2016] 年的州诉卢米斯案,其中法官部分依赖于黑匣子、秘密算法来评估被告是否有累犯风险。 该算法评估 [卢米斯] 为高风险,但人工智能用于生成评估的方法并未向法院或被告披露。 法官在判处六年监禁时考虑了该建议。 美国最高法院拒绝审理该案,因此它现在已成为法律。 现在,您可能会因为部分人工智能算法的评估而被判处长期监禁,而几乎没有追索权。 法官是否有能力理解算法评估是否充分且有可靠的经验证据支持? 答案可能是否定的,因为法官和律师通常不是训练有素的科学家。
如何开发大多数人都能理解的透明人工智能系统?
诚然,人工智能可能拥有世界上所有的透明度,但我们作为公民却无法理解人工智能在做什么。 也许科学家可以理解它,但为了让公民掌握权力,我们需要知道某件事是否会在现实世界中发挥作用。 可以考虑的一个模型是汽车。 普通人可以从头到尾观看汽车的建造过程,但仍然不知道汽车是否可以安全驾驶。 相反,您相信汽车是安全的,因为您查阅了公路安全保险协会提供的评级,该协会每天都会撞毁汽车以确定它们的安全性。 [因此],作为一名公民,我现在拥有可以用来评估一个非常复杂的社会技术系统的信息,该系统涉及技术和人类智能。 我有一些非常简单的指标,可以告诉我汽车是否安全。 虽然算法的透明度有所帮助,但了解它们是否在现实世界的应用中有效,以及是否在人类操作员手中有效,才是关键。
当人们被告知人工智能风险时,这是否会将责任或义务转移给使用人工智能的人?
责任是一个巨大的法律问题。 例如,对于自动驾驶汽车,您可以查看驾驶员对汽车的控制程度。 如果驾驶员没有任何控制权,那么您会期望制造商或参与组装汽车的其他公司承担更多的责任和义务。 当驾驶员拥有更多控制权时,情况会变得更加复杂,您可能会查看是谁做出了导致撞车的决定。 有几个与责任相关的有趣问题。 仍然以汽车为例,让我们 [假设] 如果每个人都驾驶自动驾驶汽车,我们将每年减少 20,000 例与交通事故相关的死亡。 如果是这样,那么公共政策目标将是鼓励人们使用自动驾驶汽车。 但与此同时,人们对这项技术感到恐惧。 因此,您可以想象几种支持您的政策目标以挽救这 20,000 条生命的方法。 一种方法可能是设计自动驾驶汽车,使其优先考虑乘员的安全而不是行人和其他驾驶员。 换句话说,您在车内比在车外更安全。 这将鼓励人们克服对自动驾驶汽车的恐惧,从而支持您的政策目标。 但随后社会将赋予某些生命(即车辆内部的生命)比其他生命更高的价值。
鼓励人们使用自动驾驶汽车的另一种方法本质上是辩称,如果您知道人工智能驾驶的汽车更安全,那么驾驶传统汽车是不负责任的。 1930 年代有一个名为T. J. Hooper 案的案例,其中两艘驳船在风暴中丢失,部分原因是拥有这些船只的公司没有为它们配备无线电设备。 判决是,如果开发出明显有效的新技术,那么必须将其用作预防措施。 最终,如果汽车驾驶员选择驾驶而不是乘坐统计上更安全的自动驾驶汽车,他是否会承担更多责任?
当人工智能技术本身仍在不断发展和定义时,如何制定人工智能公共政策?
我不确定定义人工智能是否有很大帮助。 我们仍然没有一个普遍接受的智能定义,因此很难为人工智能做到这一点。 规范人工智能使用的规范应该足够广泛,以便它们接受来自任何地方的创新。 但它们应该足够狭窄,以便对它的使用方式以及它如何影响人们提供有意义的约束。 有效的过程将有四个层次:首先是价值观。 我们希望人工智能为我们做什么?; 从那里,您转向道德原则。 人工智能应该如何开展工作?; 然后您可以制定公共政策建议; 最后,研究实施该政策所需的实际技术控制。