NASA 能给特斯拉自动驾驶系统带来什么启示

数十年的研究已经警示了自动化驾驶舱中人类的注意力持续时间 

特斯拉 Model S。

特斯拉汽车公司声称,其 Model S 轿车的自动驾驶系统“让驾驶员从道路旅行中最乏味和潜在危险的方面中解脱出来。” 今年早些时候,一辆 Model S 发生致命车祸,其自动驾驶系统未能识别出一辆在车辆前方转弯的拖车,这使该承诺的第二部分受到了质疑。特斯拉表示,驾驶员约书亚·布朗未能及时注意到拖车以避免碰撞。结果是什么?在特斯拉自己的话中,“刹车没有被踩下”——汽车全速撞到拖车底部,导致布朗身亡。

自从布朗的死讯在 6 月传出以来,公众一直在争论责任归属:是驾驶员、公司还是自动化技术本身。但 NASA 数十年来一直在研究驾驶舱中自动化的心理影响——而这项研究表明,所有三个因素的结合可能是罪魁祸首。NASA 兰利研究中心自主孵化器主任丹妮特·艾伦说:“如果你考虑驾驶舱的功能,那可能意味着在飞机、航天飞机或汽车中。” “NASA 可能比任何其他组织都更早开始思考自主和自动化。”

NASA 人类系统集成部门的研究心理学家斯蒂芬·卡斯纳更加直言不讳地说:“突发新闻:2017 年的汽车等于 1983 年的飞机。”


支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保有关当今塑造我们世界的发现和想法的具有影响力的故事的未来。


卡斯纳不仅仅是指保持飞机机头水平的基本机制,类似于汽车的巡航控制。他的意思是,用他的话说,“全套设备”:真正的自主飞行,从起飞后到(甚至包括)着陆。“当我们拥有这项技术时,麦当娜的第一张专辑还没有发行,”卡斯纳说。“而在 33 年后的今天,我们还在就汽车进行同样的对话。”

以下是 NASA 多年来了解的关于人类和自动驾驶汽车如何协同工作的三个要点——特斯拉可能需要对此更加关注。

“环路中”的局限性

人们经常使用“在环路中”这个短语来描述某人与决策过程的关联程度(或不关联程度)。很少有人知道这个“控制环路”有一个特定的名称:观察、定向、决策、行动 (OODA)。该框架最初由一位美国空军上校设计,“在”和“出” OODA 环路具有直接的含义。但随着自动化在日常生活中变得越来越普遍,了解人类在中间状态(称为“环路上”)中的行为方式将变得更加重要。

米西·卡明斯,一位前海军战斗机飞行员,也是杜克大学人类与自主实验室主任,将“环路上”定义为人类监督控制:“人类操作员与远程自动化系统间歇性交互,以管理受控过程或任务环境。” 例如,空中交通管制员在环路上控制着在其空域飞行的商用飞机。并且由于驾驶舱自动化日益复杂,大多数飞行员也是如此。

特斯拉将自动驾驶系统与这种环路航空进行比较,其“功能类似于飞行员在晴朗条件下使用的系统”。但卡斯纳说,这种比较存在问题:“飞机在八英里高的空中。” 如果出现任何问题,飞行员通常有几分钟的时间——更不用说紧急情况检查清单、预先绘制的危险以及机组人员的帮助——来过渡回控制环路中。(有关此内容的更多信息,请参阅 Steven Shladover 的文章《“自动驾驶汽车的真正面貌”》,载于 2016 年 6 月的《大众科学》。)

由于显而易见的原因,汽车驾驶员的反应时间通常要短得多。“当有东西突然出现在你的车前时,你只有一秒钟的时间,”卡斯纳说。“你认为壮志凌云飞行员需要有闪电般的反应速度?好吧,普通驾驶员需要更快。”

换句话说,日常驾驶环境提供的误差余地非常小,以至于“环路上”和“环路中”之间的任何区别都可能很快变得毫无意义。特斯拉通过限制驾驶员可以启用自动驾驶系统的环境来承认这一点:“清晰的车道线、相对恒定的速度、对周围车辆的感知以及您正在行驶区域的地图”,《麻省理工科技评论》报道。但布朗的死亡表明,即使在这个看似保守的范围内,“环路上”驾驶也可能是极其难以容忍的。

注意力的局限性

当然,即使是最安全的自动化也可能因普通人的疏忽而变得致命。这就是为什么特斯拉表示,自动驾驶系统“会频繁检查以确保驾驶员的手始终放在方向盘上,并且如果未检测到手放在方向盘上,则会发出视觉和听觉警报。”

但 NASA 之前也遇到过这种情况。在对高度自动化驾驶舱的研究中,NASA 研究人员记录了一种特殊的心理模式:自动化性能变得越完美,环路上监督员就越难监控它。“我们从飞行员那里听到的是,他们很难跟上[自动化的步伐],”卡斯纳说。“如果你坐在那里看着系统,它运行良好,这会非常累人。” 事实上,人类很难长时间准确地监控重复的过程。这种所谓的“警惕性下降”最早由心理学家罗伯特·麦克沃思在 1948 年发现和测量,他要求英国雷达操作员花费两个小时观察一个经过改装的模拟时钟扫描中的错误。麦克沃思发现,雷达操作员的准确率在 30 分钟后直线下降;最近版本的实验记录显示,警惕性下降甚至在 15 分钟后就会出现。

这些发现揭示了特斯拉自动驾驶系统等系统中的一个矛盾。它们工作得越好,就越有可能鼓励我们走神——但为了确保其安全运行,它们需要持续的关注。即使约书亚·布朗在驾驶时没有观看《哈利·波特》,他自己的心理也可能仍然对他不利。

一些研究人员认为,这种潜在的危险矛盾根植于对自动驾驶汽车本身的需求。“没有人会购买部分自动驾驶汽车[如特斯拉 Model S],仅仅是为了监控自动化,”麦克阿瑟奖学金获得者、认知科学家埃德温·哈钦斯说,他最近与卡斯纳和设计专家唐纳德·诺曼共同撰写了一篇关于自动驾驶汽车的论文。“当他们应该关注道路时,人们已经在吃饭、化妆、打电话和摆弄娱乐系统,”哈钦斯解释说。“他们会购买[自动驾驶汽车],以便他们可以做更多这类事情,而不是更少。”

自动化和自主性:并非同一件事

特斯拉开发自动驾驶汽车的方法依赖于一种假设,即自动化的逐步进步最终将达到“完全无人驾驶汽车”的程度。美国国家公路交通安全管理局 (NHTSA) 在其车辆自动化四级分类方案中默认认可了这一假设:1 级是指“隐形”驾驶员辅助系统,如带电子稳定控制系统的防抱死制动系统。2 级适用于结合了两个或多个 1 级系统的汽车;一个常见的例子是将自适应巡航控制与车道居中相结合。3 级涵盖 Model S 等汽车中的“有限自动驾驶自动化”,其中“驾驶员应准备好进行偶尔的控制,但具有足够舒适的过渡时间。” 哈钦斯警告说,3 级“是问题将要出现的地方”——但这并非因为部分自动化本身不安全。相反,他说,危险在于假设“完全自动驾驶自动化”——NHTSA 规模上的 4 级——是 3 级的逻辑延伸。“NHTSA 自动化级别鼓励人们认为这些是同一路径上的步骤,”哈钦斯解释说。“我认为[3 级自动化]实际上朝着略有不同的方向发展。”

谷歌这样的技术颠覆者和福特和沃尔沃等传统汽车制造商似乎都同意。这两个群体似乎都决心完全避开 3 级自动化,因为其可能在模糊情况下引发“模式混淆”。模式混淆因法航 447 空难而悲剧性地闻名,在那起空难中,飞行员没有意识到飞机的电传操纵安全系统已经自行解除。 (在王牌播音员 2中的这个片段中可以看到模式混淆的一个不太可怕的例子,其中罗恩·勃艮第严重误解了巡航控制的功能。)

鉴于对自动驾驶汽车运行的研究现状——以及 NHTSA 正在进行的对布朗车祸的调查——现在指责特斯拉或布朗个人都为时过早。虽然任何自动驾驶系统如果能在没有发生致命事故的情况下行驶超过 2 亿公里(正如自动驾驶系统所做的那样)都是一项了不起的成就,但 3 级自动化可能只是具有使其不适合汽车的特性,即使它在航空和其他环境中可靠地运行。但是,虽然了解围绕自动化的心理陷阱无法让布朗复活,但人们希望它可以帮助防止更多像他这样的死亡事件发生,因为自动驾驶汽车将继续发展。

© . All rights reserved.