自 v0.4.0 以来,项目已经合并了 200+ 个 PR,并迎来了 50 多位新贡献者。因此 LeRobot v0.5.0 成为目前规模最大的一次发布 —— 几乎在所有方向上都实现了扩展:支持更多机器人 (包括首个类人机器人) 、更多策略模型 (包括回归的自回归 VLA) 、更快的数据集处理、可以直接从 Hub 加载的仿真环境,以及基于 Python 3.12 与 Transformers v5 的现代化代码库。无论你是在仿真环境中训练策略,还是在真实硬件上部署,v0.5.0 都提供了大量新能力。
TL;DR
LeRobot v0.5.0 新增 Unitree G1 类人机器人完整支持 (全身控制模型) ,并引入新的策略,包括 Pi0-FAST 自回归 VLA 和 Real-Time Chunking (实时分块) 用于实现更快响应的推理。同时还加入 流式视频编码,消除了录制任务之间的等待时间。
此外,本版本还推出了 EnvHub,允许直接从 Hugging Face Hub 加载仿真环境;集成 NVIDIA IsaacLab-Arena;并对代码库进行了全面现代化升级,包括 Python 3.12+、Transformers v5 以及第三方策略插件系统。
硬件:支持的机器人数量再创新高
LeRobot v0.5.0 大幅扩展了支持的硬件设备,从机械臂、移动机器人到完整的类人机器人。
Unitree G1 Humanoid
本次发布中最重要的硬件新增是:对 Unitree G1 类人机器人的完整支持。这是 LeRobot 第一次集成类人机器人,而且支持非常全面:
运动能力 (Locomotion) :可以行走、导航并在环境中移动。 操作能力 (Manipulation) :能够执行精细的物体操作任务。 远程操控 (Teleoperation) :通过直观的遥操作界面远程控制 G1。 全身控制 (Whole-Body Control, WBC) :同时协调行走和操作,实现复杂的真实世界任务。
G1 的加入标志着 LeRobot 在通用机器人方向迈出了重要一步 —— 从桌面机械臂扩展到 完整身体的具身智能系统。你可以按照文档自己尝试。
文档https://hf.co/docs/lerobot/unitree_g1
![图片[1]-LeRobot v0.5.0 正式发布-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/03/20260312004659303-1773247619-5a6367b7aba9d1735b43dc6f42a0171f.jpeg)
OpenArm & OpenArm Mini
我们新增了对OpenArm机械臂以及其配套 OpenArm Mini 遥操作设备的支持。OpenArm 是一款性能出色的机械臂,并且已经实现完整的 LeRobot 集成,而 Mini 则作为它的自然遥操作设备。
OpenArmhttps://openarm.dev
两者都支持 双臂配置 (bi-manual) ,可以构建双机械臂系统,从而完成更复杂的操作任务。更多信息可查看文档。
文档https://hf.co/docs/lerobot/openarm
更多机器人
硬件生态仍在持续扩展:
Earth Rover:LeRobot 首次支持移动机器人,可用于户外导航和地面移动任务。 OMX Robot:新增的机械臂平台,支持可配置夹爪参数和校准功能。 SO-100/SO-101 统一实现:我们将 SO-100 和 SO-101 的实现整合到一个更简洁的代码库中 (包括双臂配置) ,减少重复代码,更易维护,同时保持原有功能。
Earth Roverhttps://shop.frodobots.com/products/miniplus OMX Robothttps://ai.robotis.com/omx/hardware_omx.html
CAN 总线电机
通过 CAN (Controller Area Network) 总线新增了对电机控制器的支持,从而能够接入更高性能的执行器:
RobStride:基于 CAN 的电机控制器,适用于高扭矩应用。 Damiao:另一种 CAN 总线电机控制器,进一步扩展兼容硬件范围。
RobStridehttps://github.com/RobStride/Product_Information
这意味着 LeRobot 现在不仅支持 Dynamixel 和 Feetech,也能够驱动更多 专业级执行器。
策略模型:不断扩展的模型库
本次发布为 LeRobot 新增 6 种策略或技术,进一步推动开源机器人学习的发展。
Pi0-FAST:自回归 VLA
Pi0-FAST 将自回归的 Vision-Language-Action (VLA) 模型引入 LeRobot,并采用 FAST (Frequency-space Action Sequence Tokenization) 方法。
与 Pi0 使用的 flow-matching 方法不同,Pi0-FAST 使用 基于 Gemma 300M 的自回归动作专家模型,生成离散化的动作 token,实现:
FAST Tokenization:动作被 token 化,便于自回归解码,使用专门的FAST action tokenizer。 灵活解码:可以通过温度参数和最大解码步数,在速度与质量之间进行权衡。 兼容 RTC:可与 Real-Time Chunking 结合,实现更快速的推理。
FAST action tokenizerhttps://hf.co/lerobot/fast-action-tokenizer
lerobot-train
--policy.type=pi0_fast
--dataset.repo_id=lerobot/aloha_sim_insertion_human
--policy.device=cuda
Real-Time Chunking (RTC)
Real-Time Chunking 是来自Physical Intelligence的推理阶段技术,可以显著提升 flow-matching 策略的响应速度。
Physical Intelligencehttps://www.pi.website
传统方法需要等一个完整动作序列生成后再重新规划,而 RTC 会 持续融合新的预测与正在执行的动作,使机器人行为更加平滑、响应更快。
RTC 不是独立策略,而是一个增强模块,可用于 Pi0 系列、SmolVLA 与 Diffusion 等策略。
启用方式:
--policy.rtc_config.enabled=true
在真实机器人部署中 (对延迟敏感的场景) ,这是一个非常重要的改进。更多技术细节见论文和文档。
论文https://hf.co/papers/2506.07339 文档https://hf.co/docs/lerobot/rtc
Wall-X
Wall-X 是一个新的 VLA 策略,基于Qwen2.5-VL构建,并使用 flow-matching 进行动作预测。
Qwen2.5-VLhttps://hf.co/collections/Qwen/qwen25-vl
它将 Qwen2.5-VL 的强大视觉语言理解能力与 flow-matching 控制头结合,实现 跨机器人形态控制 (cross-embodiment control) 。
pip install lerobot[wall_x]
lerobot-train
--policy.type=wall_x
--dataset.repo_id=lerobot/aloha_sim_insertion_human
X-VLA
X-VLA 将 基于 Florence2 的 VLA 模型引入 LeRobot。
该模型基于 Microsoft 的 Florence-2 视觉语言模型,为机器人学习提供了另一种基础模型选择,进一步增加模型多样性。
查看训练指南和基础模型。
训练指南https://hf.co/docs/lerobot/xvla 基础模型https://hf.co/lerobot/xvla-base
pip install lerobot[xvla]
lerobot-train
--policy.type=xvla
--dataset.repo_id=lerobot/bimanual-so100-handover-cube
SARM
SARM (Stage-Aware Reward Modeling) 用于解决机器人学习中一个非常困难的问题:长时序任务 (long-horizon tasks) 。
传统方法通常使用单一线性进度信号,而 SARM 会 同时预测任务阶段以及阶段内进度,从而更准确地描述任务进展。
这种方式可以显著提高复杂多步骤操作任务的训练效果。更多信息请查看文档。
文档https://hf.co/docs/lerobot/sarm
PEFT 支持
现在你可以使用 LoRA 等 PEFT 方法对大型 VLA 模型进行微调,而无需修改核心训练流程。
PEFT 配置在策略层进行管理,可以用较少算力将大型基础模型适配到特定机器人和任务。
详情见文档。
文档https://hf.co/docs/lerobot/peft_training
lerobot-train
--policy.type=pi0
--policy.peft_config.use_peft=true
--dataset.repo_id=lerobot/aloha_sim_insertion_human
数据集:录制更快,训练更快
本次发布对数据集处理流程进行了重大优化,使 数据采集和训练速度显著提升。
流式视频编码
过去在录制数据集时,每个 episode 结束后都需要等待视频编码完成。
现在不需要等待了。
通过 Streaming Video Encoding (流式视频编码) ,视频帧会在采集时实时编码,实现 episode 之间零等待时间。
系统还支持 自动检测硬件编码器,如果 GPU 提供视频编码能力,会自动使用。
dataset = LeRobotDataset.create(
repo_id="my/dataset",
fps=30,
video_backend="auto",
streaming_encoding=True,
)
图像训练速度提升 10 倍,编码速度提升 3 倍
在底层实现中,我们修复了数据访问瓶颈,并重构了图像处理流程:
图像训练速度提升 10 倍:优化图像变换流程并修复隐藏的数据访问瓶颈。 编码速度提升 3 倍:默认启用并行编码,并根据数据类型动态调整压缩级别。 更高 CPU 利用率:录制和数据集创建时资源使用更加高效。
新的数据集工具
数据集编辑工具也持续增强:
子任务支持:可以在 episode 中标注子任务,支持层级任务学习。 图像转视频:将现有图像数据集转换为视频格式,提高存储效率,并支持多个 episode 合并到同一视频文件。 更多编辑操作:新增 info数据集检查功能、任务修改工具,以及对拆分、合并、特征编辑等操作的修复。更多配置选项:可自定义视频编码格式、容差设置和元数据缓冲大小。
EnvHub:从 Hub 加载仿真环境
EnvHub 让 LeRobot 可以 直接从 Hugging Face Hub 加载仿真环境。
过去需要在本地安装环境并手动注册,现在只需要指定 Hub 仓库即可:
自动下载环境代码 自动注册到 Gymnasium 直接用于训练和评估
Hub 环境使用 HubEnvConfig,会下载并执行远程 make_env 函数:
lerobot-train
--env.type=hub
--env.hub_path="username/my-custom-env"
--policy.type=act
这大大降低了分享自定义仿真环境的门槛。只需打包环境并上传到 Hub,其他人就能直接使用。
更多信息见文档。
文档https://hf.co/docs/lerobot/envhub
示例教程:LeIsaac x LeRobot EnvHub tutorial
LeIsaac x LeRobot EnvHub tutorialhttps://hf.co/docs/lerobot/envhub_leisaac
NVIDIA IsaacLab-Arena
我们还集成了 NVIDIA IsaacLab-Arena,为 LeRobot 带来 GPU 加速仿真。
IsaacLab-Arena 提供了一系列基于 NVIDIA Isaac Sim 的操作任务环境,并支持大规模并行环境实例,从而加速强化学习训练。
该集成包括:
专门的前处理和后处理流程 与 LeRobot 训练流程完全兼容
详情见文档。
文档https://hf.co/docs/lerobot/envhub_isaaclab_arena
代码库:现代化基础设施
本版本对代码库进行了全面升级:
Python 3.12+ :LeRobot 现在要求 Python 3.12 作为最低版本,从而能够使用更现代的语法并获得更好的性能。 Transformers v5:项目已经迁移到 Hugging Face Transformers v5,以保持与最新模型生态的兼容。 第三方策略插件:类似于 v0.4.0 的硬件插件系统,现在也可以把自定义策略注册为可安装的插件包,例如: pip install lerobot_policy_mypolicy,然后通过--policy.type=mypolicy使用,无需修改核心库代码。具体方法可以参考文档。远程 Rerun 可视化:可以使用 Rerun 远程可视化机器人的遥测数据,并支持图像压缩,从而实现更节省带宽的数据流传输。 安装流程改进:新增 uv的安装说明,同时进一步明确了安装步骤,并优化了依赖管理。现在顺序安装流程也在文档中有清晰说明。文档版本管理:文档现在支持版本化,可以始终查阅与你当前安装版本对应的文档。 PyTorch 版本更新:更新了 PyTorch 的版本范围,以支持 NVIDIA Blackwell GPU。
文档https://hf.co/docs/lerobot/bring_your_own_policies 安装说明https://hf.co/docs/lerobot/installation
社区与生态
Discord 社区升级:对 Discord 社区进行了更新,优化了频道结构,使这个最活跃的社区交流平台更加清晰、有序。
GitHub README、模板与自动标签:更新了 README,新增 issue 和 PR 模板、贡献指南,以及自动化标签系统,让社区成员更容易参与和贡献。
ICLR 2026 论文录用:LeRobot 论文已被ICLR 2026接收。
ICLR 2026https://openreview.net/forum?id=CiZMMAFQR3
LeRobot Visualizer 更新:可视化工具进行了升级,新增数据集可视化徽章,并改进了整体功能。可以在这里体验
可以在这里体验https://hf.co/spaces/lerobot/visualize_dataset?path=%2Fimstevenpmwork%2Fthanos_picking_power_gem%2Fepisode_0
LeRobot Annotation Studio:推出了一个 HuggingFace Space,用于给数据集中的每个时刻添加自然语言子任务标注,让数据标注更加方便。查看项目
查看项目https://hf.co/spaces/lerobot/annotate
最后
除了上述重点功能之外,v0.5.0 还包含:
数百个 bug 修复 文档改进 CI/CD 优化 大量开发体验提升
从更严格的类型检查到更健壮的测试基础设施,我们正在持续加强 LeRobot 的基础架构,以支持未来更大规模的发展。
我们也要向 整个社区表示衷心感谢 —— 所有贡献者、用户和合作伙伴都在推动 LeRobot 不断进步。每一次 bug 报告、PR 和讨论都让这个项目变得更好。
更多内容即将到来 🤗 从这里开始:https://github.com/huggingface/lerobot
https://github.com/huggingface/lerobothttps://github.com/huggingface/lerobot
— LeRobot 团队 ❤️
很快就会有一个重大惊喜发布,敬请期待!👕
英文原文: https://huggingface.co/blog/lerobot-release-v050
原文作者: Steven Palma, Pepijn Kooijmans, Jade Choghari, Caroline Pascal, Khalil Meftah, Martino Russi, Nicolas Rabault, Michel Aractingi, Virgile BATTO, Thomas Wolf
译者: Luke, Hugging Face Fellow
<原文链接:https://mp.weixin.qq.com/s/bqu6_SwBcbxj05EUdajCWg












暂无评论内容