在具身智能(Embodied AI)的浪潮中,我们始终在思考一个问题:如何让机器人既有“博学的大脑”,又有“敏捷的身手”?
现有的 VLA(Vision-Language-Action)模型虽然通过大规模参数获得了惊人的泛化能力,但在真实物理世界中,庞大的推理延迟往往让机器人表现得像个“反应迟钝的木头人”。
今天,我们对外发布:Xiaomi-Robotics-0。这是一个拥有47亿参数、兼具视觉语言理解与高性能实时执行能力的开源 VLA 模型。它不仅在三大主流的仿真测试中获得优异成绩,更在现实真机任务中实现了物理智能的泛化——动作连贯、反应灵敏,且能在消费级显卡上实现实时推理。
01
物理智能的钥匙:MoT 混合架构
物理智能的核心在于“感知-决策-执行”的闭环质量。为了兼顾通用理解与精细控制,Xiaomi-Robotics-0采用了主流的 Mixture-of-Transformers (MoT) 架构。
视觉语言大脑(VLM): 我们采用了多模态 VLM 大模型作为底座。它负责理解人类的模糊指令(如“请把毛巾叠好”),并从高清视觉输入中捕捉空间关系。
动作执行小脑(Action Expert):为了生成高频、平滑的动作,我们嵌入了多层的 Diffusion Transformer (DiT)。它不直接输出单一动作,而是生成一个“动作块”(Action Chunk),并通过流匹配(Flow-matching)技术确保动作的精准度。
![图片[1]-小米开源首代机器人 VLA 大模型,刷新多项 SOTA!-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/02/20260213002348939-1770913428-5ffae8b60ed1d5c0a0c28a2ae84737cb.png)
(模型架构及训练方法:(a) VLM多模态与动作混合预训练;(b) DiT专项预训练;(c) 目标任务后训练)
这种“大脑+小脑”的组合,让我们的模型既能听懂指令,又能像人类一样,在动作执行时保持极高的物理灵活性。
02
训练秘籍:两阶段的“进化论”
如何让模型既不丢失常识,又精通“体力活”?我们设计了一套严谨的训练配方。
▍跨模态预训练(Cross-Embodiment Pre-training)
大部分 VLA 模型在学动作时往往会“变笨”,失去本身的理解能力。我们通过多模态与动作数据的混合训练,让模型在学会操作的同时,依然保持强大的物体检测、视觉问答和逻辑推理能力。
VLM 协同训练:我们首先引入了 Action Proposal 机制,强迫 VLM 模型在理解图像的同时预测多种动作分布。这一步是为了让 VLM 的特征空间与动作空间对齐,不再仅仅是“纸上谈兵”。
DiT 专项训练:随后,我们冻结 VLM,专注于训练 DiT, 学习如何从噪声中恢复出精准的动作序列。这一阶段,我们去除了 VLM 的离散 Token,完全依赖 KV 特征进行条件生成。通过 DiT 专项训练,模型可以生成高度平滑、精准的的动作序列。
![图片[2]-小米开源首代机器人 VLA 大模型,刷新多项 SOTA!-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/02/20260213002352509-1770913432-7da4ce3bdb1f8c9e653a3a37b11e1699.png)
(多模态数据与跨本体机器人数据的分布)
▍后训练(Post-training)
这是解锁物理智能的核心路径。针对推理延迟引发的真机“动作断层”问题,我们采用异步推理模式——让模型推理与机器人运行脱离同步约束、异步执行,从机制上保障动作连贯流畅。为进一步强化模型对环境变化的响应敏捷性与运行稳定性,我们引入了:
Clean Action Prefix:将前一时刻预测的动作作为输入,确保动作轨迹在时间维度上是连续的、不抖动的,进一步增加流畅性。
Λ-shape Attention Mask:通过特殊的注意力掩码,强制模型更关注当前的视觉反馈,而不是沉溺于历史惯性。这让机器人在面对环境突发变化时,能够展现出极强的反应性物理智能。
![图片[3]-小米开源首代机器人 VLA 大模型,刷新多项 SOTA!-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/02/20260213002354947-1770913434-a3a235633249b7aa63553b17f4f4aac5.png)
(异步推理示意图,模型推理延迟不影响真机连续性运行)
![图片[4]-小米开源首代机器人 VLA 大模型,刷新多项 SOTA!-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/02/20260213002356726-1770913436-a5d76e3e7160a5e3256078491d95906c.png)
(我们采用特殊的注意力掩码机制,有效缓解动作惯性)
03
仿真与实战:全面SOTA
在多维度的测试中,Xiaomi-Robotics-0 展现出优异的表现:
仿真标杆: 在 LIBERO、CALVIN 和 SimplerEnv 测试中,模型在所有的 Benchmark、30种模型对比中,均取得了当前最优的结果。
真实挑战: 我们在双臂机器人平台上部署了模型并与行业标杆进行了横向对比。在积木拆解和叠毛巾这种长周期、高度挑战的任务中,机器人展现出了极高的手眼协调性。无论是刚性的积木还是柔性的织物,都能处理得游刃有余。
多模态能力:模型保留了 VLM 本身的多模态理解能力,尤其是在具身更相关的 benchmark 中表现优异,这是之前的 VLA 模型所不具备的。
![图片[5]-小米开源首代机器人 VLA 大模型,刷新多项 SOTA!-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/02/20260213002359214-1770913439-346f0b65ed206d7a53cb3d91c733cc5e.png)
(在VLA、VLM的Benchmark以及真实机器人的效果指标)
04
开源与资源
我们始终相信开源的力量,具身智能技术的爆发不可能靠一个组织的努力,为此,我们决定将模型进行开源:
技术主页:https://xiaomi-robotics-0.github.io
开源代码:https://github.com/XiaomiRobotics/Xiaomi-Robotics-0
模型权重:https://huggingface.co/XiaomiRobotics
05
About Xiaomi Robotics
探索物理智能的边界,我们从不止步。欢迎加入,一起在具身智能领域,触碰未来。
![图片[6]-小米开源首代机器人 VLA 大模型,刷新多项 SOTA!-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/02/20260213002402312-1770913442-3ca63a21151cd1fdaf95ac5bda41df19.jpeg)

![图片[8]-小米开源首代机器人 VLA 大模型,刷新多项 SOTA!-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/02/20260213002406451-1770913446-ef6495a1f77877f1c646423a48558c61.jpeg)
<原文链接:https://mp.weixin.qq.com/s/FEMJBekqPHpMpE60b8kV4A












暂无评论内容