当人工智能伤害到某人时,谁来负责?加利福尼亚州的一个陪审团可能很快就必须做出决定。2019年12月,一名驾驶特斯拉汽车的人,在使用人工智能导航系统时,在一次事故中导致两人丧生。该司机将面临最高12年的监禁。数个联邦机构正在调查特斯拉的撞车事故,美国司法部已对特斯拉如何营销其自动驾驶系统展开刑事调查。加州机动车辆管理局也在审查其人工智能引导驾驶功能的使用情况。
我们目前的责任体系——用于确定责任和伤害赔偿——尚未为人工智能做好准备。责任规则是为人类造成大多数伤害的时代设计的。但是随着人工智能的出现,即使没有任何直接的人工输入,也可能发生错误。责任体系需要做出相应的调整。糟糕的责任政策不仅会扼杀人工智能的创新,还会损害患者和消费者的利益。
现在是时候考虑责任问题了——因为人工智能变得无处不在,但仍然监管不足。基于人工智能的系统已经造成了伤害。2019年,一个人工智能算法错误地识别了一起严重袭击案的嫌疑人,导致了一起错误的逮捕。2020年,在新冠疫情高峰期,一个基于人工智能的心理健康聊天机器人鼓励一个模拟的自杀病人结束自己的生命。
关于支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您将帮助确保有关塑造我们当今世界的发现和想法的具有影响力的故事能够拥有未来。
制定正确的责任框架对于释放人工智能的潜力至关重要。不确定的规则和昂贵的诉讼前景将阻碍人工智能在从医疗保健到自动驾驶汽车等行业的投资、开发和应用。
目前,责任调查通常从算法的使用者开始——并止于此。诚然,如果有人滥用人工智能系统或忽视其警告,那么这个人应该承担责任。但是,人工智能错误通常不是用户的过错。谁能责怪急诊室医生,因为人工智能算法遗漏了视乳头水肿——视网膜一部分的肿胀?人工智能未能检测到这种情况可能会延误治疗,并可能导致患者失明。然而,在没有眼科医生检查的情况下,视乳头水肿很难诊断。
人工智能不断地进行自我学习,这意味着它获取信息并在其中寻找模式。它是一个“黑匣子”,这使得很难知道哪些变量对其输出有贡献。这进一步使责任问题复杂化。对于一个由无法解释的人工智能造成的错误,你能责怪医生多少?仅仅将责任转移给人工智能工程师并不能解决问题。当然,工程师们创建了有问题的算法。但是,每次特斯拉Autopilot事故都可以通过在产品发布前进行更多测试来避免吗?
关键是确保所有利益相关者——用户、开发者以及链条上的所有其他人——承担足够的责任,以确保人工智能的安全性和有效性,但又不会多到让他们放弃人工智能。为了在保护人们免受 faulty AI 伤害的同时仍然促进创新,我们提出了三种改进传统责任框架的方法。
首先,保险公司必须通过在使用前测试和验证新的人工智能算法,来保护投保人免受因人工智能伤害而被起诉的费用。汽车保险公司多年来也一直在对汽车进行比较和测试。独立的安全性系统可以为人工智能利益相关者提供一个可预测的责任系统,该系统可以适应新技术和方法。
其次,一些人工智能错误应该在具有此类案件专业知识的法院进行诉讼。这些法庭可以专门处理特定的技术或问题,例如处理两个人工智能系统的交互(例如,两辆自动驾驶汽车彼此相撞)。这种法院并不新鲜:在美国,这些法院已经裁决疫苗伤害索赔数十年。
第三,来自联邦机构(如美国食品和药物管理局或国家公路交通安全管理局)的监管标准可以抵消开发者和用户的过度责任。例如,联邦法规和立法已经取代了某些形式的医疗器械责任。监管机构应该积极主动地关注人工智能开发的标准流程。通过这样做,他们可以将某些人工智能视为风险过高,不宜在未经测试、重新测试或验证的情况下引入市场。这将使各机构能够保持灵活,并防止与人工智能相关的伤害,而不会使人工智能开发者承担过多的责任。
从金融到网络安全等行业正处于人工智能革命的风口浪尖,这可能会使全球数十亿人受益。但是,这些好处不应被开发不良的算法所破坏:21世纪的人工智能需要21世纪的责任体系。