又一特斯拉致命事故调查报告出炉,看完还敢相信 Autopilot 吗?
编者按:本文来自微信公众号“新智驾”(ID:AI-Drive),作者:电动膏药,36氪经授权发布。
司机 Walter Huang 要负主要责任
2018 年 3 月 23 日,苹果工程师 Walter Huang(黄伟伦) 开着自己的特斯拉 Model X 上班时不幸发生了致死车祸,他的车一头撞上了高速公路下道口的隔离墩。当时,特斯拉 Autopilot 处于开启状态,但却未能识别路上的障碍。更可怕的是,在车辆接近隔离墩时,它还控制车辆加了速。
最终,被动安全能力超强的 Model X 也没能保住 Walter Huang 的性命。事故发生后,美国国家运输安全委员会(NTSB)开始着手对其进行深入调查,最近它们才终于公布了调查报告。本月二十五号,还会有针对 NTSB 完整报告的听证会举行。
这场事故确实让人心有余悸,简言之,这是每个硅谷人都躲不过的一段高速,而且出事的地方离特斯拉在帕罗奥托的总部也就几英里远,因此特斯拉的工程师们也是这段高速路的常客。
分析了整篇报告就会发现,NTSB 只是适度加了一些新数据而已,而且增加的部分大家几乎都猜到了。显然,Walter Huang 犯了大错,因此也需要承担大部分责任,毕竟特斯拉 Autopilot 只是一款驾驶员辅助系统,它依然需要驾驶员的监督。尽管如此,特斯拉和自动驾驶社区还是对 Autopilot 的性能以及如何才能做得更好感兴趣。
除了自行承担主责的 Walter Huang,负责公路养护的 Caltrans 也有责任。因为在 Walter Huang 出事前几天,就有一辆车撞到了相同的隔离墩,不过那位幸运的司机活下来了。可惜,Caltrans 没能对这个隔离墩进行及时更换,否则 Walter Huang 生还的机会就高多了。从相关资料来看,这个高速公路下道口发生的碰撞事故可真不少,不知道现在的 Autopilot 有没有进化出分辨隔离墩是否损坏的能力。
需要注意的是,NTSB 的报告可能不会给 Autopilot 定责。虽然它没有像广告上那样表现的神乎其神,但 Walter Huang 很清楚 Autopilot 并不能很好地处理高速中的下道口,因为在这个位置上,他至少碰上过两次问题。
除此之外,报告中还对 Walter Huang 最后一段时间在干什么进行了猜测,不排除当时他正在自己的 iPhone 上玩游戏的可能。至于他的手有没有按要求放在方向盘上,报告中也有争议。
那天到底发生了什么?
当时,Walter Huang 像往常一样开着 Autopilot 在路上巡航。不过,高速上的车道线却因为风吹日晒而变得有些模糊,尤其是左侧车道线,而它可是 V 型分道线与主路之间的重要分割线。事实上,用谷歌搜搜就会发现,这里的车道线 2016 年就开始显得模糊了,显然当时 Autopilot“看走眼了”,它甚至有可能将 V 型分道线左侧的线看成了左侧车道线,而真正的左侧车道线则被当成了右侧车道线,沿着这条路走下去等待他的就是车毁人亡。
更不幸的是,当时 Walter Huang 设定的巡航速度为 75 英里/小时(约合 120 千米/小时),但由于前方车辆阻挡,Autopilot 采取了减速处理。不过,当这辆 Model X 走岔道以后,前方就没有其他车辆阻碍了,Autopilot 开始引导车辆重回 75 英里/小时,但前方却不是路,而是水泥隔离墩。
需要注意的是,美国高速路上水泥隔离墩前本该放置一个金属的碰撞缓冲器,一旦碰撞发生它就会吸能来帮车主保命。可惜,这里的碰撞缓冲器已经变形,起不到吸能的作用了。除此之外,缓冲器的变形也造成了 Autopilot 目标识别的失误。
有人会说,摄像头废了 Autopilot 不是还有雷达吗?确实,但雷达识别起静止的物体,效果表现更差,要不然特斯拉也不会多次碰撞路边的消防车。
到底有没有“大撒把”?
想要让 Autopilot 正常工作,司机就必须时不时给方向盘点“压力”,告诉它你还在。如果太长时间不触碰方向盘,就会有警告出现。如果司机继续置之不理则会有语音警告出现,车辆会慢慢刹停。一般来说,第一阶段的视觉警告后司机就会将注意力转移回来了。
在碰撞发生前 19 分钟内,Autopilot 都一直在线,不过其间它给了 Walter Huang 两次视觉警告。在碰撞发生前 2-3 分钟,Walter Huang 松开方向盘大约有30秒的时间。在视觉提醒下他又握了握方向盘,但碰撞前 6 秒时车辆还是处在“大撒把”状态。
开车玩游戏?
有证据显示,Walter Huang 开车时在玩“三国”游戏,因为他的 iPhone 在碰撞发生前一分钟给游戏服务器传了数据,而这款游戏需要双手操作。
当然,NTSB 的报告中并未明说游戏会不会在后台自动传输数据。不过,如果 Walter Huang 开车玩游戏为真,那么这次事故他就肯定要负主责了。
为何走错路?
众所周知,以现在的技术水平,模糊不清的道路标线很容易造成 ADAS 系统失误,Walter Huang 的悲剧也与此密切相关。特斯拉的系统本可以更聪明,但马斯克却明确拒绝了高精地图的技术路线。
如果有高精地图,至少水泥隔离墩和碰撞缓冲器的位置会被标识出来。此外,即使道路标线会变,桥也很少会发生变化。也就是说,这场事故本可以避免的。
一头扑向隔离墩?
除了走错路,车辆的感知系统当时处于完全失效的状态,摄像头居然没能抓到一张隔离墩的清晰照片,雷达也没有收到回波。显然,Autopilot 的安全冗余并不够,摄像头发挥失常后,雷达对静止物体就束手无策了。除了不擅长探测静止物体,雷达的分辨率还很差,纵轴的上下视场几乎没有分辨率,而水平视场最多只有 5 度。
如果车上配置了高精地图,它至少能给电脑一个雷达回波的预计值与物体方位信息。不过,即使如此雷达的低分辨率在关键时刻还是会拖后腿。
摄像头倒是没有分辨率方面的问题,但一个已经变了形的缓冲器却不是它能 Hold 住的,特斯拉的神经网络可没见过这“阵仗”。更重要的是,正常的缓冲器都有黄黑条纹的警告标记,但变形的这个却恰好没有。
事故发生后,特斯拉也对自家系统进行了升级,以增强其探测未知障碍物的能力。虽然通过运动视差等技术计算视觉能注意到各种物体,但神经网络识别起从未见过的事物还是有点吃力。鉴于 马斯克对 LiDAR 嗤之以鼻,特斯拉这套摄像头系统的能力想要覆盖全场景还有很长的路要走。
总而言之,不管经过谁的调教,摄像头+雷达的组合现在还只是归属于 ADAS,算不得全自动驾驶。
谁该负责?
毫无疑问,Walter Huang 要为自己的意外去世买单,因为他心里很清楚 Autopilot 在这个下道口力有不逮(此前曾两次遇到过类似问题)。此外,开车打游戏也是他的不对。现在的 Autopilot 只是一套 ADAS 系统,司机不能指望它“全知全能”。
负责公路管理的 Caltrans 在工作上也有需要完善的地方,比如尽快修复受损设施并更新道路标线。可惜,在现实中这两点很难做到,因此未来自动驾驶和 ADAS 系统必须接受教训,学着点应对这种特殊状况。当然,现在这个 V 型分道线已经重新涂刷了,但谁知道别的地方是否潜藏着类似的危险呢?
需要注意的是,NTSB 进行事故调查时并没有拉上特斯拉帮忙,因为马斯克不服从NTSB 的管理,甚至直接挂了 NTSB 主席的电话,这样的局面其实对双方都没什么好处。
从调查报告来看,此次事故特斯拉不用负什么责任,但它们的经验教训可不少,而且在通向全自动驾驶的路上都能用到。事故之后,特斯拉及时升级了车辆对模糊标线的读取能力,同时对于静态物体的探测也有进步。不过,摄像头+雷达的组合还是无法 100% 避免追尾静止物体的事故。
事实上,Walter Huang 的事故发生一年后,又有一辆特斯拉追撞了路边的卡车,而且当时卡车并不是完全静止,它正在慢慢悠悠过马路呢。对于这起事故,NTSB 只是发布了初步报告,但报告中并未包含特斯拉 Autopilot 当时到底在做什么以及相关分析。
相关推荐
又一特斯拉致命事故调查报告出炉,看完还敢相信 Autopilot 吗?
美政府:特斯拉Autopilot设计缺陷导致车祸
日本车祸遇难者遗孀起诉特斯拉,Autopilot设计存在缺陷
特斯拉自动驾驶车祸调查结果的背后,Autopilot系统是否被过度神话?
Tesla 两年前车祸致死案,事故报告终发布
股价上天但问题频出的特斯拉,该踩踩“刹车”了
特斯拉报告:自动驾驶每453万英里1起事故 明显改善
马斯克“AI自研芯片”终圆梦,但特斯拉Autopilot还在路上
特斯拉Autopilot再调价,粉丝一直在为马斯克情怀“填坑“?
特斯拉AutoPilot到底是如何过路口的?
网址: 又一特斯拉致命事故调查报告出炉,看完还敢相信 Autopilot 吗? http://www.xishuta.com/newsview17805.html
推荐科技快讯
- 1问界商标转让释放信号:赛力斯 94953
- 2人类唯一的出路:变成人工智能 19253
- 3报告:抖音海外版下载量突破1 18966
- 4移动办公如何高效?谷歌研究了 18490
- 5人类唯一的出路: 变成人工智 18351
- 62023年起,银行存取款迎来 10127
- 7网传比亚迪一员工泄露华为机密 8182
- 8顶风作案?金山WPS被指套娃 7096
- 9大数据杀熟往返套票比单程购买 7045
- 10五一来了,大数据杀熟又想来, 6865