关于ZAKER 合作
钛媒体 14小时前

萝卜快跑,可能错在了“敏感肌”

文 | 象先志

几天前,武汉多辆萝卜快跑无人驾驶车在高架和主干道上集体 " 熄火 "。车群像被按了暂停键,一动不动地停在路中间,好在没有造成人员安全问题,车内的乘客也都非常顺利地安全下车。

但铺天盖地的骂声又来了:" 起大早赶晚集 "" 自动驾驶安全不到位 "" 百度技术就这?"

讲真,单纯喷前沿科技这事儿,可能是互联网上最安全的生意了。流量赚得盆满钵满,还有 " 为消费者发声 " 的天然 zzzq 护身。

但这次,可能不太一样。在自动驾驶安全的技术问题上,可能错的很少,而真正导致这次 " 熄火 " 事件的,很可能是安全策略上设置的 " 敏感肌 "。

不是能力限制,而是安全选择

先聊一个概念,如果 L4 级别自动驾驶车辆出现了故障,那么最好的处理方式应该是什么。

其实需要先确定的一个点是:为什么要明确 L4 级别自动驾驶这个关键点

因为常规的 L3 及 L3 以下的责任主体,和 L4 级别自动驾驶是存在差异的。

这个问题如果拉到咱们日常生活中,看现在已经上市且可民用的辅助驾驶车型属于 L3 以下的智能辅助系统责任归属是,"L3:系统激活时,经营者 / 制造商担责;驾驶员未按规定接管担相应责任。" 避开所有的技术细节,只需要明白一个问题:如果出现交通事故,那么事故的第一责任人是驾驶员本身。

因为现在厂商们其实很鸡贼,碰到辅助驾驶解决不了的情景就让车机退出,所以发生事故的时候的责任人还是司机本身。

对于我们所说的真正的 " 自动驾驶 " 车辆、也就是驾驶位上可以不用坐人的车来说,按照政策相关规定,责任的划分非常明确的:归厂商。

具体的文件叫《智能网联汽车准入和上路通行试点实施指南》,有兴趣的同学可以自行查看。

基于这个责任划分,就可以想明白,大规模自动驾驶车辆是需要保证一个整体安全性,因为如果车辆出现了类似的情况,那么如果发生车辆因为后续的靠边停车或其他操作造成二次事故,后果就会难以评估。

厂商只有两个层面能解决这样的事故:云端和车辆端。

从整个事件来推断,其实是云端下发停车指令,这点应该是比较清晰的。

有不少质疑声:为什么不让车靠边停下?这样不是更安全吗?

并非如此。

云端下达指令之后,所有的终端车辆停车,如果需要靠边停车,则需要车端自行并操作靠边停车指令。但问题是,车内没有安全员的情况下,谁来负责车里用户和整体的驾驶安全?

更有人在评价这次事故的时候,说是单车的技术冗余不够,没法靠边停车,还是看看萝卜的单车能力:

4 颗禾赛 AT128 激光雷达(128 线,200 米探测)

12 个摄像头 + 6 个毫米波雷达 + 12 个超声波雷达

1200 TOPS 算力(双 Orin X 芯片)

这套能力不仅在靠边停车上绰绰有余,而且完全有能力支持单车智能:感知周围环境、识别可停车区域、自主靠边。但百度的架构设计,让这些硬件只用于上传数据,最终决策必须回传云端。

所以紧急停车,恰恰才是这个时候最安全的操作。因为这其实根本不是技术所限,而是极端状况下的最后一步。

旧金山也停了,原因一样

自动驾驶集体停摆,并非中国独有。

2025 年 12 月,旧金山大面积停电,Waymo 数百辆无人车堵在路口,有的停在路中间,有的卡在十字路口,司机不得不绕行。Waymo 事后解释:车辆确实能把熄灯信号灯当作四向停车来处理,但出于早期部署的审慎策略,车辆在执行前会向远程团队发送 " 确认请求 "。停电规模太大,确认请求集中暴增,远程系统处理不过来,车就卡住了。

红绿灯不工作 waymo 自动驾驶车辆当街集体趴窝

熟悉吗?和萝卜快跑几乎是同一个故事:都是远程环节成为瓶颈,都是审慎策略在极端情况下变成了系统性瘫痪。

再看另一个极端。2025 年 6 月至今,特斯拉在奥斯汀的 Robotaxi 累计 14 起碰撞,事故率约为人类的 4 到 8 倍。特斯拉是纯视觉加端到端神经网络,车端完全自主决策。出问题不是因为 " 不敢动 ",而是 " 太敢开 "。

三家公司,三种策略,三种代价。特斯拉放权给单车,换来了高事故率;Waymo 介于两者之间,保守确认机制在大规模异常时崩溃;萝卜快跑最极端——云端集控,稍有刺激,整个系统进入 " 保护性休克 "。

所以结论其实非常明确,萝卜快跑的安全策略是属于 " 过于谨慎 " 的那一派,也就是所谓的 " 敏感肌 " ——出问题了,停下解决问题。

这样的表现确实造成了这样一个并不好看的结果,虽然单车硬件冗余远超 Waymo 和特斯拉,但决策权被云端锁死。就像给士兵配了枪,但扳机由千里之外的指挥官遥控——不是不会开枪,是不被允许自己开枪。

稍有刺激,整个系统就进入 " 保护性休克 "。

但好处在于,如果我是坐在后面的乘客,我更希望在这样的事故出现时,车确实能安稳停下,让我赶紧下车,这对于乘客本人和整体安全,应当都是最优解。

萝卜犯错,为什么不被允许?

有趣的是,自动驾驶其实是 AI 能力在现实世界最前沿的投影。

当大家还在为龙虾欢呼雀跃,感叹智能涌现的时候,是可以容忍大模型笨、大模型出错,毕竟这对个体来说并没有过多影响。

但自动驾驶真正开始为人们服务、改变这个社会出行方式的时候,却因为他执行了最安全的策略,而诟病他很笨。

批评萝卜快跑 " 技术不行 " 是容易的、是上头的,但可能是错的。

当萝卜、小马、文远们站在这个行业中最显眼的位置时,一有风吹草动,人们就会开始 " 草木皆兵 "。而他们选择的其实都是最难走的一条路。

自动驾驶最难的部分,从来不是让车开起来,而是让车用最安全的方式停下来

相关标签

觉得文章不错,微信扫描分享好友

扫码分享

企业资讯

查看更多内容