特斯拉自动驾驶有多坑?那么醒目的横躺大货车,只有Model 3不减速撞上去

又双叒叕撞了

鱼羊 发自 凹非寺
量子位 报道 | 公众号 QbitAI

SpaceX载人发射刚成功,马斯克俨然人类希望。

但刚刚发生的这起事故,又让不少网友惊掉了下巴:

马斯克了不起,但特斯拉的AutoPilot,也实在辣鸡到扶不起。

这不,开启AutoPilot的特斯拉,又撞了。

还是在一个所有人都能清晰看到的侧翻大货车事故车道,特斯拉Model 3,几乎毫不减速地撞了上去。

事情发生在台湾。上午6点44,光线条件算不上极端,高速路上,一辆货车侧翻在地,后续来车纷纷避让。

但当监控镜头里出现了一辆白色特斯拉Model 3,画风就变得诡异了起来——

这辆行驶在快车道上的Model 3,以110公里的时速,直直撞向了如此明显的货车障碍物!

一阵白烟,Model 3的车头整个都扎进了货车车厢里。

网友们都惊呆了:这么明显的障碍物,竟然完全不带减速的吗?!

事故为什么发生?依然AutoPilot

所幸,事故没有造成人员伤亡。

但如此离奇的特斯拉事故,老司机一看都猜测——又是AutoPilot的锅。

果然,警方调查证实了这一点。

据CNA报道,特斯拉车主向警方表示,事故发生时,车辆处于AutoPilot开启状态,时速定速在110公里。

他本以为,特斯拉侦测到障碍物会自动刹车。

而且从视频来看,他似乎完全放心地把车辆的控制权,交给了特斯拉的高级辅助驾驶系统。

所以当他发现前方有障碍物,Model 3却完全没有减速……等他想要接管——紧急踩下刹车时,事故已经没法儿避免。

货车司机还向警方解释称,当时他在分隔岛等待救援,看到特斯拉快速驶来,还试图挥手示意,让司机减速避让。

但特斯拉毫无反应,“嘣”地就扎进了货车车身。

特斯拉车主全责?

还没明确结果,但事故认定大概率如此。

因为有“前车之鉴”。

去年5月,美国国家交通安全委员会(交委会)曾对一起特斯拉事故案披露了调查结果。

也是一起车主开启AutoPilot状态遭遇的车祸,不同的是车主直接在事故中丧生。

但最终在调查和特斯拉的官方说明中,给出的结论让外界“无话可说”:

车主对AutoPilot使用不当。

特斯拉官方还补充说:特斯拉所有的司机在使用AutoPilot系统的情况下行驶了超过10亿英里,我们的数据显示,如果一位细心的司机使用得当,如果他随时准备控制局面,那么由自动驾驶系统支持的司机比那些没有帮助的司机更安全。

言外之意:使用AutoPilot的时候,车主要保持高度专注。

AutoPilot很安全,出了车祸都是车主没有按要求“保持高度专注”造成的。

所以特斯拉真就丝毫没有责任?

当时外媒《连线》就直接质问特斯拉了:为啥一辆大卡车横在前面,AutoPilot的系统“看不见”?

更滑稽的是,在特斯拉的AutoPilot和“全自动驾驶”方案中,一直宣称使用视觉为主的方案就足够安全。

然而事实并非如此。

包含台湾这起Model 3的事故在内,特斯拉的车祸事故,宛如出自一个模子。

2018年3月,在美国加州山景城发生的一起致命事故中,特斯拉表示,车辆日志显示,司机收到了需将手放在方向盘上的警告,但司机在事故发生前没有采取任何行动。事故发生时,这辆Model X车处于自动驾驶模式。

2016年5月,一名特斯拉Model S司机在佛罗里达州威利斯顿附近被撞死,当时他启动了自动驾驶系统,车辆撞上了一辆拖拉机拖车,电动车车顶被掀开。

更早之前,被称为特斯拉首例死亡车祸的事故中,也是AutoPilot状态下的特斯拉,没有识别白色外观的大卡车,于是不减速撞击, 车毁人亡。

但即便如此,马斯克为了节省成本,始终坚持不用激光雷达,不搞多传感器冗余。

甚至还明确放话:视觉方案已经足够安全,用激光雷达的自动驾驶方案都是大傻X。

激进的特斯拉自动驾驶策略

一直以来,马斯克和特斯拉,就是自动驾驶实践中最激进的玩家。

之前为了突出卖点,很长一段时间里,特斯拉都是把AutoPilot——高级辅助驾驶系统,当成“自动驾驶”来对外宣传的。

后来事故频发,舆论谴责“宣传误导”,这才改口并明确:Autopilot自动辅助驾驶功能需要驾驶员进行主动监控。

另外,也有外界猜测,其实对AutoPilot的改口,只是因为FSD——完全自动驾驶方案对外发布了。

然而即便在专门计算硬件FSD加持的完全自动驾驶方案里,传感器方案却没有变。

依然坚持摄像头(8个)+ 超声波传感器(12个)为主。

马斯克还声称,这套方案足够实现“完全自动驾驶”:

“完全的意思是,汽车能够从家中开车去工作,在途中几乎不需要驾驶员操作。”

目前,特斯拉也确实在自动驾驶能力上,提供了量产的体验,比如自主泊车、主动召唤、环路和高速上的车道保持和定速,甚至还有自主变道等能力……很多特斯拉车主,也乐于秀出各种场景下的表现。

只是那些出事的“小白鼠”,却再也没有机会发声了。

因为AutoPilot和FSD代表的自动驾驶落地路线,本身就有根植于人性的悖论。

特斯拉的小白鼠们

自动驾驶分级中,共分5级,级别越高,人类参与驾驶的程度就越低。

特斯拉的AutoPilot,虽然特斯拉长期以“自动驾驶”对外宣传,但业界始终认为处于L2-L3之间,属于高级辅助驾驶。

这种高级辅助驾驶可以帮助人类提升驾驶体验,但依然需要人类在驾驶中处于主导地位。

矛盾之处也正是如此。

一方面,AutoPilot可以代人在一些场景下驾驶,但另一方面又要求司机在紧急情况下接管汽车。

这就要求一个长时间放松的人,必须还要时刻专注在车程中。

换一个更多人有过的经验,上课允许走神,但只要老师点名提问,就能马上给出答案。

很多特斯拉车主的血泪经历说明,处于放松状态的司机,会看视频、会睡着,而且过度信任特斯拉视觉感知系统的能力。

于是当“老师点名提问”来临,他们往往措手不及。

当然,特斯拉也并非完全没有针对性方案。

比如监测到司机双手没有握着方向盘,就会提醒,但后来也出现很多攻略,比如一个橘子就能“骗”过特斯拉的系统。

而且现在特斯拉FSD全自动驾驶硬件已经发布,依然依靠现有视觉为主的感知方案,马斯克就认为足够开启全自动驾驶了。

该能力甚至都无需特斯拉车主握住方向盘,就能实现特斯拉从家中车库到公司车路的全自动驾驶。

马斯克还放话说要推出RoboTaxi,推动100万辆特斯拉成为无人驾驶出租车。

至于安全准备,马斯克不以为意。

在RoboTaxi的落地中,Waymo实际路测到2000万公里,还小心翼翼在中西部城市凤凰城郊区保守体验。

而马斯克认为,每一辆上路的特斯拉,或多或少都在阴影模式下参与了特斯拉自动驾驶路测。

什么叫阴影模式,就是在特斯拉提供车主使用一些最新自动驾驶功能,并在后台通过“阴影模式”帮助特斯拉后台迭代自动驾驶算法。

很多特斯拉车主,也对此觉得并无不妥。

如外界评论的那样,很多特斯拉车主并不会意识到自己当了马斯克的小白鼠,直到车祸发生。

然而,一旦有车祸发生,特斯拉不会像Uber无人车那样被直接追责,特斯拉官方和其他车主会异口同声说:AutoPilot很好,使用不当是当事车主的错。

你说,这样的小白鼠哪里找?

所以,每一次这样的事故后,只能给特斯拉车主送上老生常谈的提醒:

道路千万条,安全第一条,行车不规范,亲人两行泪。

— 完 —

版权所有,未经授权不得以任何形式转载及使用,违者必究。