< img id="wx_img" src="https://www.qbitai.com/wp-content/uploads/imgs/qbitai-logo-1.png" width="400" height="400">

为啥武汉无人车也“呆”了一次

被误解的“安全感”

杰西卡 发自 副驾寺

智能车参考 | 公众号 AI4Auto

武汉“萝卜”,因为“呆”被热议了。

3月31日晚,在武汉市区内,有市民发现部分“萝卜快跑”无人驾驶车在路上停摆。

好在交管部门和萝卜快跑的工作人员火速赶到,乘客安全下车,没有人员伤亡,交通路段也及时恢复了正常秩序。

不过,关于这次事件的讨论,却仍在网上持续发酵。

大家都在好奇,自动驾驶车辆为什么会突然“愣”在路上。

而且这事看着有点似曾相识——

几个月前在大洋彼岸,另一位顶尖无人车玩家Waymo,也发生过一次更大规模的停摆事件……

或许这不是巧合?但为什么会这样?

无人车为什么会“愣”在路上?

据知情人士向智能车参考透露,萝卜快跑发生“停滞”事件,其实是车辆在自检到潜在风险时,系统为保障安全给出的主动策略

所以,要解答无人车停摆这个疑问,我们就得抛开人类驾驶的思维习惯,先从自动驾驶系统的运行逻辑说起。

对人类司机而言,驾驶是一门融合了经验、预判甚至有些许“赌一把”心理的艺术。

比如看到一个昏暗难辨的路口,人类老司机可能会减速、探头、仔细观察,然后凭借经验通过。这期间,大脑几乎是瞬间完成了风险衡量,给出的结论是事故概率似乎不高,可以通行

但“AI司机”的大脑不同。它的核心逻辑不是“大概率没事”,而是“必须确定没事”

因此,为了保障这套逻辑能运行无误,安全方面就要设置多重预防,也就是我们常说的“安全冗余”

而在自动驾驶系统中,这套安全冗余设计体现在感知-决策-执行三个层面。

首先是感知层

当前主流的L4无人车玩家(除了坚持“纯视觉”的特斯拉),大多都为产品安装了激光雷达、毫米波雷达、高清摄像头等多种传感器,为的是对周围环境进行更精准全面的感知。

这些传感器各司其职,把各自探测到的数据汇总到一起,由系统做融合判断,接下来就轮到决策层发力。

决策层中,自动驾驶车辆的安全冗余和飞机类似,关键系统通常都会配有主、备两套计算大脑,确保一个“死机”的情况下,另一个能瞬间接管。

绝大多数时候,由传感器提供的数据会保持一致,决策层根据数据发出相应指令,让车辆实现自动驾驶。

但有时遇到极端或长尾场景,传感器偶尔也会出现分歧,对同一障碍物判断不一。

此时,系统不会盲目相信任何一个传感器,而是会进入“验证模式”——多确认几帧数据,或者等待更清晰的场景出现。

这个过程需要时间,如果在某些极端场景下,比如光线突变、恶劣天气,系统确认信息的时间可能还会被拉长。

这就需要最后的执行层去处理。

遇到系统经过综合判断,仍无法以足够高的置信度做出安全决策时,执行层就会按照底层代码的终极安全指令,启动“最小风险策略”

这一切冗余设计的终极目标,都是为了确保在任何单一部件甚至组合出现问题时,系统仍保有最后、也是最根本的能力:把车安全、平稳地停下来,避免可能的事故发生

就好比家用车的发动机,故障灯亮起后,车辆会自动限速或熄火保护——这是行业通用的安全底线逻辑。

而这种异常情况下做出的“停滞”选择,其实有一个更贴切的称呼,叫做“降级措施”

“降级措施”本身并非自动驾驶独有,实则已经在其他领域的关键安全系统上沿用了数十年。

最典型的例子是飞机的自动驾驶仪

在民航客机飞行途中,如果传感器数据出现异常,飞机自动驾驶仪会自动切换到“降级模式”,或者会直接交还给飞行员手动操控。

这个设计的理念在于,在万米高空中,“不确定”意味着风险,而风险不能靠硬闯来解决。

这是对安全最负责任的处理方式,也是航空领域沿用数十年的冗余思路。

对应到坚持同一逻辑的自动驾驶行业中,这种“保守”其实也是自动驾驶区别于人类司机的核心价值。

人类可能因为赶时间等因素,选择相对更冒进的驾驶行为;而机器则会严格依据概率和规则,选择最安全的动作——即使这个动作,现在看起来可能有点“呆”。

无人驾驶行业,是否需要“必要的停顿”?

当然,有人会问:既然是安全设计,为什么不能做得更“丝滑”一点?为什么不能像老司机一样,一边判断一边通过?

这个问题的答案,还要从自动驾驶的发展阶段去挖掘。

就拿国内顶尖Robotaxi玩家萝卜快跑来说。据其最新披露的数据显示:

截至今年2月,萝卜快跑累计提供全球出行服务次数超2000万,足迹已覆盖全球26个城市。

其自动驾驶总里程累计超3亿公里,相当于从地球到太阳跑一个来回;其中有超1.9亿公里是全无人驾驶里程。

这是一个什么概念呢?

就全球Robotaxi格局来看,萝卜快跑是全球极少数能在大规模、全天候、全无人场景下稳定运行的自动驾驶玩家之一。

其技术路线、安全体系以及运营能力,已经在千万级订单的实战中得到了验证。

可即便实力强如“萝卜”,在运营过程中,“过于谨慎”的时刻仍会出现,这甚至是必然的——

比如对某些边缘场景判断不足,选择原地等待;比如对某些复杂路口“犹豫”过久,导致短暂停滞。

因为系统需要在特殊场景中不断积累经验、拓宽场景。这就像人类学车时,教练会反复强调“宁停三分,不抢一秒”。

新手司机往往会在该停的地方停,不该停的地方也停,但随着经验积累,他会越来越清楚什么时候该停、什么时候该走。

自动驾驶车辆也是一样。

每一次“停滞”,后台都会记录下当时的场景数据、传感器信息、决策日志,工程师和模型会分析为什么会触发“最小风险策略”,然后优化算法。

下一次遇到类似场景时,系统决策就会更精准、更丝滑。随着数据积累和模型迭代,这种“过于谨慎”会越来越少。

这种靠千万次真实出行打磨出来的积累,就是自动驾驶的进化方式。

而这种安全与进化逻辑的顶层设计,在全球顶尖的自动驾驶公司中,实际早已形成共识

这里举个另一顶尖无人车玩家,美国谷歌旗下Waymo的例子。

2025年12月,美国旧金山因变电站火灾而大规模停电,交通信号灯大面积失效。由于无法识别失效信号灯,Waymo车辆在多处路口开启双闪,陷入“停滞”。

Waymo后来解释,这是因为公司系统预设将失效信号灯视为“四向停车”(Four-way stop)场景,但因停电规模超预期,车辆确认路口安全状态耗时过长,触发了“最小风险策略”(原地停车并双闪)。

而且据Waymo透露,这是美国加州DMV(可以理解为加州车管所)对L4级全无人驾驶的强制安全要求,并非企业自主选择。

换句话说,在关键的安全底线上,行业的技术路径是收敛的、趋同的:

在系统遇到“感知不确定”或“外部环境异常”的情况下,“停下来”是法律和技术共同规定的最后一道防线

当然,不得不承认,这种“停滞”确实会给交通带来短暂影响。尤其是在城市主干道上,一辆车突然“愣”住,确实会让后方车辆措手不及,也会让围观的路人产生疑问。

但视野拉长,我们会发现,人类历史上任何一场足够深刻的技术变革,一路都伴随着与公众认知、社会规则的漫长磨合。

就像电力系统发展了数百年,到现在依然偶有停电故障。但这并没有阻止它成为现代社会的基础设施。

而自动驾驶还处于早期阶段,像停摆这样的偶发且未有人员受伤的情况,客观来看,其实也属于合理、可理解的范畴。

当下,我们正见证自动驾驶从“新手司机”向“老司机”蜕变的最后阶段。

与此同时,外界判断无人驾驶公司实力几何、技术成熟与否,需要一把新的、更理性的标尺。

在技术走向完全成熟的漫长道路上,追求“永远不出事”是一个理想化的终点,但将它作为衡量当下实力的唯一标准,则可能脱离现实,也无视了技术创新过程中的客观规律。

所以在复杂的现实路况中,我们还要看“状况”真的发生后,一家公司是如何兜底、响应,以及如何从中学到东西,完成迭代的。

而在这期间,所有真实场景暴露出的问题,经过处理、优化,最终都会成为自动驾驶车辆集体升级的“疫苗”。

 

版权所有,未经授权不得以任何形式转载及使用,违者必究。