武汉市内无人驾驶车曾一度停滞,引发热议。
被误解的“安全感”
当地市民在3月31日夜晚发现部分萝卜快跑车辆停在路上不动。
这次事件在网络上持续发酵,引发了广泛讨论。
大家纷纷猜测,自动驾驶汽车为何会突然停滞不前?
有人认为这并非偶然——几个月前,在美国旧金山也发生过类似的大规模停摆事故……
谁能说这不是巧合?背后的原因是什么?
据知情人士透露,萝卜快跑车辆的“停滞”是出于安全考虑,当系统检测到潜在风险时会主动采取措施。
为了理解这个问题,我们需要从自动驾驶系统的运行逻辑入手进行探讨。
对于人类司机来说,驾驶是一种结合经验、预判甚至冒险的心理活动。
比如在昏暗路口,老司机可能会减速观察后通过。这背后是大脑快速评估风险后的决策过程。
但“AI司机”处理信息的方式则更加严格和谨慎。
它的核心原则是必须确保安全无误,因此需要多重预防措施来保障系统运行。
在自动驾驶中,这种冗余设计体现在感知、决策及执行三个层次上。
目前主流的L4级无人车通常配备多种传感器,如激光雷达和高清摄像头等,以实现精准全面的环境识别。
当这些设备检测到的数据出现分歧时,自动驾驶车辆会进入验证模式,等待更清晰的信息确认。

在极端情况下,如果系统无法确定安全通过,则会启动“最小风险策略”,即停车不动。
这种设计的最终目的就是确保无论任何部件出现问题,系统都能保证将车停下来以避免潜在事故。
类似于家用汽车在发动机故障时采取的安全保护措施。
首先是感知层。
业内称之为“降级措施”,这种做法已经广泛应用于航空等领域多年。

在飞机自动驾驶仪中,若传感器数据异常,则会自动切换至备份模式或交由飞行员手动控制。
这样的设计理念在于,在面临不确定因素时,最安全的做法是避免硬闯风险。
对于自动驾驶行业而言,“保守”做法正是其区别于人类司机的关键所在。
无人驾驶是否需要“必要的停顿”,这一问题值得深思。
当然有人质疑为何不能做得更流畅一些,但答案在于技术发展阶段的限制。
据悉,萝卜快跑已在全球范围内提供超过两千万次出行服务,并积累了三亿公里以上的自动驾驶里程。
其中近一亿九千公里是完全无人驾驶的路程。
尽管如此,即使是这样的技术巨头,在实际运营中也会遇到需要谨慎处理的情况。
比如在特定场景下系统会等待更多信息确认或原地停顿。
这是因为自动驾驶车辆仍在不断学习和适应各种复杂环境。
正如新手司机需反复练习以积累经验,无人驾驶汽车也会通过真实出行数据优化决策模型。
每次停滞都会被记录下来,工程师们会分析触发停车的原因并改进算法。
随着时间推移和技术进步,“过于谨慎”的行为将会减少。

这种由大量实际行驶经验积累而来的技术革新方式在全球顶尖自动驾驶公司中已达成共识。
例如,Waymo曾在旧金山因停电导致交通信号灯失效的情况下采取紧急停车措施,并解释了其原因和操作依据。
实际上,这类安全机制是法律和技术双重规定的必要保障。
尽管这种停顿可能会给交通带来短暂的不便,但从长远来看,这是技术进步过程中不可避免的一部分。
历史上任何重要的技术创新都伴随着与公众认知和社会规则的长时间磨合期。
自动驾驶领域也不例外,在其发展早期阶段出现这类偶发事故是完全可以理解的现象。
目前正处于自动驾驶从初级到成熟的关键过渡时期。
在此过程中,评估无人驾驶公司的技术实力和安全性需要采用更为理性的标准。
完全避免所有事故发生是一个理想化的目标,但将其作为评判当前技术水平的唯一依据则显得过于苛刻。
更重要的是考察公司在面对突发状况时如何应对、学习并从中进步。

实际上,每一次问题暴露都为整个行业提供了改进的机会。
这是一个什么概念呢?
就全球Robotaxi格局来看,萝卜快跑是全球极少数能在大规模、全天候、全无人场景下稳定运行的自动驾驶玩家之一。
其技术路线、安全体系以及运营能力,已经在千万级订单的实战中得到了验证。
可即便实力强如“萝卜”,在运营过程中,“过于谨慎”的时刻仍会出现,这甚至是必然的——
比如对某些边缘场景判断不足,选择原地等待;比如对某些复杂路口“犹豫”过久,导致短暂停滞。
因为系统需要在特殊场景中不断积累经验、拓宽场景。这就像人类学车时,教练会反复强调“宁停三分,不抢一秒”。
新手司机往往会在该停的地方停,不该停的地方也停,但随着经验积累,他会越来越清楚什么时候该停、什么时候该走。
自动驾驶车辆也是一样。

每一次“停滞”,后台都会记录下当时的场景数据、传感器信息、决策日志,工程师和模型会分析为什么会触发“最小风险策略”,然后优化算法。
下一次遇到类似场景时,系统决策就会更精准、更丝滑。随着数据积累和模型迭代,这种“过于谨慎”会越来越少。
这种靠千万次真实出行打磨出来的积累,就是自动驾驶的进化方式。
而这种安全与进化逻辑的顶层设计,在全球顶尖的自动驾驶公司中,实际早已形成共识。
这里举个另一顶尖无人车玩家,美国谷歌旗下Waymo的例子。
2025年12月,美国旧金山因变电站火灾而大规模停电,交通信号灯大面积失效。由于无法识别失效信号灯,Waymo车辆在多处路口开启双闪,陷入“停滞”。

Waymo后来解释,这是因为公司系统预设将失效信号灯视为“四向停车”(Four-way stop)场景,但因停电规模超预期,车辆确认路口安全状态耗时过长,触发了“最小风险策略”(原地停车并双闪)。
而且据Waymo透露,这是美国加州DMV(可以理解为加州车管所)对L4级全无人驾驶的强制安全要求,并非企业自主选择。
换句话说,在关键的安全底线上,行业的技术路径是收敛的、趋同的:
在系统遇到“感知不确定”或“外部环境异常”的情况下,“停下来”是法律和技术共同规定的最后一道防线。
当然,不得不承认,这种“停滞”确实会给交通带来短暂影响。尤其是在城市主干道上,一辆车突然“愣”住,确实会让后方车辆措手不及,也会让围观的路人产生疑问。
但视野拉长,我们会发现,人类历史上任何一场足够深刻的技术变革,一路都伴随着与公众认知、社会规则的漫长磨合。
就像电力系统发展了数百年,到现在依然偶有停电故障。但这并没有阻止它成为现代社会的基础设施。
而自动驾驶还处于早期阶段,像停摆这样的偶发且未有人员受伤的情况,客观来看,其实也属于合理、可理解的范畴。

当下,我们正见证自动驾驶从“新手司机”向“老司机”蜕变的最后阶段。
与此同时,外界判断无人驾驶公司实力几何、技术成熟与否,需要一把新的、更理性的标尺。
在技术走向完全成熟的漫长道路上,追求“永远不出事”是一个理想化的终点,但将它作为衡量当下实力的唯一标准,则可能脱离现实,也无视了技术创新过程中的客观规律。
所以在复杂的现实路况中,我们还要看“状况”真的发生后,一家公司是如何兜底、响应,以及如何从中学到东西,完成迭代的。
而在这期间,所有真实场景暴露出的问题,经过处理、优化,最终都会成为自动驾驶车辆集体升级的“疫苗”。

杰西卡