5 月 13 日,小米正式发布并开源 XiaomiOneVL 一步式潜空间语言视觉推理框架。该框架首次将视觉语言动作(VLA)、世界模型和潜空间推理等技术路线统一于同一架构中,在自动驾驶领域的感知、推理与规划任务中实现性能提升。XiaomiOneVL 在 ROADWork、Impromptu 和 Alpamayo-R1 三项主流基准上达到当前最优(SOTA)水平,并在 NAVSIM 基准上表现优异。其推理精度超越显式思维链(CoT)方法,推理速度与 " 仅答案 " 预测的潜空间 CoT 方案相当。该框架支持语言与视觉双维度可解释性,可同时以文字说明决策原因并以预测画面展示未来场景。小米已开源 XiaomiOneVL 的模型权重、训练与推理代码,并公开技术报告及项目主页供业界使用。
网通社汽车频道
13小时前
小米开源 XiaomiOneVL 框架,统一 VLA 与世界模型实现自动驾驶推理速度与精度突破
相关标签