我们需要比更智能的 AI 更迫切地需要更智能的无人驾驶汽车法规

最近特斯拉 Autopilot 和 Cruise 自动驾驶出租车的消息引发了公众的担忧。我们需要强有力的联邦和州法规,以确保无人驾驶汽车的基于 AI 的软件的安全性

Cockpit of driverless car driving on highway viewed from rear seat

对人工智能的兴奋 抬高了人们对机器学习技术在自动驾驶方面的作用的期望。AI 的大型语言模型 (LLM) 将单词组合成句子,与机器在公共道路上驾驶车辆之间存在根本差异。自动驾驶不仅对无人驾驶汽车的乘客,而且对所有道路使用者都具有生命安全影响。其软件的准确性和可靠性标准必须远高于支持桌面或手机应用程序的 LLM。

尽管人们对人为驾驶失误的担忧不无道理,但美国严重交通事故的频率已经非常低。根据国家公路交通安全管理局 (NHTSA) 的交通统计数据,致命事故大约每 360 万小时驾驶发生一次,而导致受伤的事故大约每 61,000 小时驾驶发生一次。相当于每连续 24/7 驾驶 411 年发生一次致命事故,每 7 年发生一次导致受伤的事故。对于复杂的软件驱动系统,尤其是大规模生产且价格合理的系统而言,实现如此长的平均故障间隔时间极其困难。

无人驾驶汽车公司 Cruise 与加州安全监管机构的问题以及特斯拉与 NHTSA 的问题表明了自动驾驶软件系统面临的一些安全挑战。它们不仅仅是纯粹的技术问题,因为它们还表明,两家公司都试图将硅谷“快速行动,打破陈规”的文化带入一个安全需要成为首要优先事项的应用中,这存在严重风险。开发安全系统需要耐心和对细节的一丝不苟,这两者都与速度不相容。而且我们的车辆不应该打破任何东西——尤其是人。


支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保有关塑造我们今天世界的发现和想法的具有影响力的故事的未来。


这就是为什么美国需要一个严格的自动驾驶安全监管框架——以便该技术的安全增强潜力能够实现,并且公众对其安全性的信任能够由行业赢得,一旦它经过安全专家和安全监管机构的适当审查。由于其安全关键性质,驾驶车辆的软件需要以前所未有的高可靠性水平运行。公众和安全监管机构都需要收到可证明和可解释的证据,证明它可以提高交通安全,而不是使其恶化。这意味着该软件不能完全依赖机器学习的 AI 方法,还需要纳入明确的算法安全护栏。特斯拉和 Cruise 提供了为什么这有必要的预警。

在特斯拉的案例中,NHTSA 一直在调查 Level 2 部分驾驶自动化系统的安全问题,这些系统旨在在驾驶员持续监督和特定的有限道路和交通条件下控制车速和转向。去年 12 月 12 日,它宣布与特斯拉达成召回协议,召回配备 Autopilot 功能的车辆,因为该公司未包含足够的安全措施来防止驾驶员误用。与福特和通用汽车公司类似的驾驶自动化功能形成鲜明对比的是,特斯拉的 Autopilot 不使用直接(红外)驾驶员视线视频监控来评估驾驶员在监督系统运行时的警惕性。并且该软件允许在任何地方使用该系统,而无需考虑它是否在为此设计的限制通行高速公路上。简单的修改本可以合理地指示驾驶员的警惕性,并将系统的使用限制在具有合适道路条件的地点,以降低安全风险。该公司拒绝这样做,并且仅在 Autopilot 中实施一些额外的警告(通过无线软件更新),试图阻止滥用。需要更强有力的监管干预来迫使他们对系统进行“地理围栏”,以便该系统只能在已被证明可以安全运行的地方使用,并且当摄像头显示驾驶员正在向前看以查找它可能无法识别的危险时才能使用。

在 Cruise 未能及时完整地报告 10 月 2 日的事件后,加州汽车管理局撤销了 Cruise 在旧金山提供无人驾驶乘车服务的授权,该事件中,其一辆汽车拖拽了一名被困在车下并受重伤的撞车事故受害者。这引发了对 Cruise 运营的全面内部重新审查,结果显示该组织的安全文化及其与公众和公共机构官员的互动都存在重大问题。Cruise 选择了一种硅谷文化,该文化重视开发和扩张的速度而不是安全,并且与其他一直在开发无人驾驶乘车服务的领先公司形成对比,它没有首席安全官或有效的企业安全管理系统。尽管安全一直是 Cruise 的一个重要谈话要点,但该公司在做出具有重大安全影响的决策时显然并未将其置于优先地位。

在近期,虽然自动驾驶技术仍在成熟,并且没有足够的数据来定义精确的基于性能的法规,但在州或(最好是)国家层面实施基本要求以提高安全性并增强公众对安全性的认知方面仍然可以取得进展。应要求自动驾驶系统 (ADS) 开发商和车队运营商:确保 ADS 无法在其行为尚未被证明是安全的地方运行;报告所有碰撞和未遂事故(以及高 g 机动和人为控制接管);并实施经过审计和监管的安全管理系统。最后,他们应制定全面的安全案例,并在部署前接受州或联邦监管机构的审查和批准。安全案例应识别合理可预见的危险,并描述如何根据在真实条件下人类监督下测试的定量证据来减轻每种危险对公共安全的风险。

只有当行业赢得公众对该技术安全性的信任时,自动驾驶技术的安全增强潜力才能实现。这将需要法规来设定安全系统开发和运营流程的最低要求,并充分披露安全相关数据,以供独立安全专家和监管机构审查。

这是一篇观点和分析文章,作者或作者表达的观点不一定代表《大众科学》的观点。

Steven E. Shladover 是一位工程师,从事先进技术在交通运输系统中的应用研究已有 50 多年。他在交通运输系统规划和分析、车辆动力学和控制、大型系统和经济学方面拥有专业知识。Shladover 帮助创立了加州大学伯克利分校的加州 PATH 计划,并在各种管理职位上任职,包括项目技术总监和高级车辆控制与安全系统项目经理。他于 2017 年底从 PATH 的移动项目经理职位退休。

更多作者:Steven E. Shladover
© . All rights reserved.