当人工智能伤害他人时,谁来负责?
加利福尼亚州的一个陪审团可能很快就要做出决定。2019年12月,一名驾驶特斯拉汽车并使用人工智能驾驶系统的人在加迪纳发生的一起事故中导致两人死亡。 这名特斯拉司机面临数年监禁。 鉴于此事件和其他事件,国家公路交通安全管理局 (NHTSA) 和国家运输安全委员会都在调查特斯拉的撞车事故,NHTSA 最近扩大了其调查范围,以探索驾驶员如何与特斯拉系统互动。 在州层面,加利福尼亚州正在考虑限制特斯拉自动驾驶功能的使用。
我们当前的责任体系——我们确定责任和人身伤害赔偿的体系——完全没有为人工智能做好准备。责任规则是为人类造成大多数错误或伤害的时代设计的。 因此,大多数责任框架将惩罚施加于最终用户医生、司机或其他造成伤害的人类身上。 但对于人工智能而言,即使没有任何人为输入,也可能发生错误。 责任体系需要做出相应调整。 不良的责任政策将损害患者、消费者和人工智能开发人员。
关于支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。 通过购买订阅,您正在帮助确保有关当今塑造我们世界的发现和想法的具有影响力的故事的未来。
现在是考虑责任问题的时候了——正值人工智能变得无处不在但仍未受到充分监管之际。 基于人工智能的系统已经造成了伤害。 2018年,一辆自动驾驶优步汽车撞死了一名行人。 尽管驾驶员失误是问题所在,但人工智能未能检测到行人。 最近,一个基于人工智能的心理健康聊天机器人鼓励一位模拟的自杀患者自杀。 人工智能算法歧视了女性求职者的简历。 而且,在一个特别引人注目的案例中,人工智能算法错误地识别了一起严重袭击事件的嫌疑人,导致了错误的逮捕。 然而,尽管存在失误,人工智能仍有望彻底改变所有这些领域。
制定正确的责任格局对于释放人工智能的潜力至关重要。 不确定的规则和潜在的高昂诉讼费用将阻碍对人工智能系统的投资、开发和采用。 人工智能在医疗保健、自动驾驶汽车和其他行业的更广泛应用取决于确定谁(如果有)最终对人工智能系统造成的伤害承担责任的框架。
人工智能挑战了传统的责任。 例如,当一个“黑匣子”算法——变量的身份和权重动态变化,因此没有人知道预测中包含什么——推荐一种最终造成伤害的治疗方法,或者在人类驾驶员能够做出反应之前鲁莽地驾驶汽车时,我们如何分配责任? 这真的是医生或司机的错吗? 是创建人工智能的公司的错吗? 如果他们鼓励采用,其他所有人——医疗系统、保险公司、制造商、监管机构——应该承担什么责任? 这些都是尚未解答的问题,对于建立人工智能在消费产品中的负责任使用至关重要。
与所有颠覆性技术一样,人工智能功能强大。 如果创建和测试得当,人工智能算法可以帮助进行诊断、市场研究、预测分析以及任何需要分析大型数据集的应用。 麦肯锡最近的一项全球调查显示,全球超过一半的公司报告称已在其日常运营中使用人工智能。
然而,责任常常集中在最容易攻击的目标上:使用算法的最终用户。 责任调查通常从撞毁汽车的司机或做出错误治疗决定的医生开始并结束。
诚然,如果最终用户滥用人工智能系统或忽视其警告,他或她应该承担责任。 但人工智能错误通常不是最终用户的错。 谁能责怪急诊室医生的人工智能算法遗漏了视乳头水肿——一种视网膜肿胀? 人工智能未能检测到病情可能会延误治疗,并可能导致患者失明。 然而,如果没有眼科医生的检查,视乳头水肿很难诊断,因为通常需要更多的临床数据,包括脑部影像和视力,作为检查的一部分。 尽管人工智能在各个行业都具有革命性的潜力,但如果最终用户对可能致命的错误承担全部责任,他们将避免使用人工智能。
将责任完全转移到人工智能设计者或采用者身上也无法解决问题。 当然,设计者创建了所讨论的算法。 但每起特斯拉事故都是特斯拉的错,可以通过在产品发布前进行更多测试来解决吗? 事实上,一些人工智能算法不断自学习,获取其输入并动态地使用它们来改变输出。 没有人可以确定人工智能算法究竟是如何得出特定结论的。
关键是要确保所有利益相关者——用户、开发者以及从产品开发到使用的整个链条上的每个人——承担足够的责任,以确保人工智能的安全性和有效性——但又不会多到让他们放弃人工智能。
为了在促进创新的同时保护人们免受人工智能故障的影响,我们提出了三种修改传统责任框架的方法。
首先,保险公司必须通过在使用前测试和验证新的人工智能算法来保护投保人免受因人工智能伤害而被起诉的过高成本,就像汽车保险公司多年来一直在比较和测试汽车一样。 独立的安全系统可以为人工智能利益相关者提供可预测的责任系统,该系统可以适应新技术和方法。
其次,一些人工智能错误应该在专门法院审理,这些法院具有裁决人工智能案件的专业知识。 这些专门法庭可以培养特定技术或问题方面的专业知识,例如处理两个人工智能系统(例如,两辆自动驾驶汽车相撞)的交互。 这种专门法院并不新鲜:例如,在美国,专门法院通过裁决疫苗伤害并深入了解该领域,几十年来一直保护着儿童疫苗制造商。
第三,来自美国食品药品监督管理局 (FDA) 或 NHTSA 等联邦机构的监管标准可以抵消开发人员和一些最终用户的过度责任。 例如,联邦法规和立法取代了医疗设备或杀虫剂的某些形式的责任。 监管机构应认为某些人工智能风险过高,不宜在没有测试、重新测试或验证标准的情况下引入市场。 联邦监管机构应主动关注人工智能开发的标准流程。 这将使监管机构能够保持敏捷性并预防与人工智能相关的伤害,而不是在为时已晚时才做出反应。 相比之下,尽管州和地方消费者保护和卫生机构无法建立国家监管体系,但它们可以帮助澄清特定领域的行业标准和规范。
用过时的责任体系阻碍人工智能将是可悲的:自动驾驶汽车将为许多缺乏交通工具的人们带来出行便利。 在医疗保健领域,人工智能将帮助医生选择更有效的治疗方法、改善患者预后,甚至在以超支闻名的行业中降低成本。 从金融到网络安全,各行各业都处于人工智能革命的风口浪尖,这场革命可能使全球数十亿人受益。 但这些好处不应被开发不良的算法所削弱。 因此,21世纪的人工智能需要21世纪的责任体系。
这是一篇观点和分析文章,作者或作者表达的观点不一定代表《大众科学》的观点。