![图片[1]-世界模型 LingBot-World,正式开源!-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260130010839648-1769706519-63e13ef2ecdd31c087f8782a10790de3.gif)
继高精度空间感知模型 LingBot-Depth 与具身大模型 LingBot-VLA 后,今天,我们正式开源世界模型 LingBot-World。
LingBot-World 是一个专为交互式世界模型设计的开源框架。其核心 LingBot-World-Base 致力于提供高保真、可控制且逻辑一致的模拟环境。该模型由一个可扩展数据引擎(Scalable Data Engine)驱动,通过从大规模游戏环境中学习物理规律与因果关系,实现了与生成世界的实时交互。
在视频质量、动态程度、长时序一致性与交互能力等关键指标上,LingBot-World 均展现出业界领先的性能。我们希望为具身智能、自动驾驶及游戏开发领域,提供一个高保真、高动态、可实时操控的“数字演练场”。
![图片[2]-世界模型 LingBot-World,正式开源!-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260130010840907-1769706520-4a1866b3fc550c6151a3f488e6c3a66c.png)
LingBot-World 在适用场景、生成时长、动态程度、分辨率等方面均处于业界顶尖水平
01
直面挑战:真实世界交互的高昂成本
具身智能的规模化落地,面临一个核心挑战 —— 复杂长程任务的真机训练数据极度稀缺,在真实世界中获取用于训练的数据,尤其是涉及复杂、长程任务的数据,成本极高且充满不确定性。
世界模型(World Model)为这一困境提供了解决方案。它能够在数字世界中构建一个与物理世界规律一致的仿真环境,让智能体在其中进行低成本、高效率的“演练”与“试错”。通过在仿真环境中学习,智能体能够理解行为与结果之间的因果关系,从而将在虚拟世界习得的经验,迁移并应用于真实世界的任务中。
02
LingBot-World
核心技术特性
LingBot-World 的设计初衷,正是为了打造这样一个足够真实、可交互、可泛化的“数字演练场”。为此,我们围绕几个核心技术方向进行了深入探索。
长时序一致性与记忆能力
视频生成领域普遍存在“长时漂移”问题,即生成时间一长,便可能出现物体变形、细节塌陷、主体消失或场景结构崩坏等现象。针对这一难题,LingBot-World 通过多阶段训练及并行化加速策略,实现了近 10 分钟的连续稳定无损生成,为长序列、多步骤的复杂任务训练提供了可靠支撑。
在我们的压力测试中,即便镜头移开长达 60 秒后返回,场景中的核心物体依然能保持其结构与外观的一致性。
![图片[3]-世界模型 LingBot-World,正式开源!-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260130010850845-1769706530-e510a421f73c429c04bbbfe366706f52.gif)
高动态环境下,镜头长时间移开后返回,车辆形态外观仍保持一致
![图片[4]-世界模型 LingBot-World,正式开源!-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260130010850381-1769706530-588e3421b5c1115e6f35a226f87f3357.gif)
镜头长时间移开后返回,房屋仍存在且结构一致
高保真实时交互
LingBot-World 告别了随机的“幻觉”式生成。它支持精细化的、由动作驱动的生成(action-conditioned generation),能够精确响应用户指令,渲染出高质量且符合物理真实感的动态场景。
一个真正可用的“演练场”,必须具备实时交互的能力。LingBot-World 在此方面进行了深度优化,可实现约 16 FPS 的生成吞吐,并将端到端交互延迟控制在 1 秒以内。这意味着,用户可以通过键盘或鼠标实时控制角色与相机视角,画面能够根据指令即时反馈。此外,模型还支持通过文本指令触发环境变化与世界事件,例如调整天气、改变画面风格,并在保持场景几何关系相对一致的前提下完成动态生成。
Zero-shot 泛化与混合数据策略
为解决世界模型训练中高质量交互数据匮乏的问题,我们采用了一种创新的混合数据采集策略。一方面,我们通过清洗大规模网络视频以覆盖多样化的场景;另一方面,我们结合游戏采集与虚幻引擎(UE)合成管线,从渲染层直接提取无 UI 干扰的纯净画面,并同步记录下操作指令与相机位姿。这种方式为模型学习“动作如何改变环境”提供了精确对齐的训练信号。
得益于此,LingBot-World 具备了良好的 Zero-shot 泛化能力。仅需输入一张真实的城市街景照片或游戏截图,模型即可生成对应的可交互视频流,无需针对单一场景进行额外训练,显著降低了在不同场景中的部署与使用成本。
03
从实验室到真实场景
我们相信,LingBot-World 的价值在于其作为“数字演练场”,凭借长时序一致性(也即记忆能力)、实时交互响应,以及对"动作-环境变化"因果关系的理解,能够在数字世界中"想象"物理世界,从而为智能体的场景理解和长程任务执行提供一个低成本、高保真的试错空间。LingBot-World 支持的场景多样化生成(如光照、摆放位置变化等),也有助于提升具身智能算法在真实场景中的泛化能力。
同时,我们也认识到当前模型存在的局限。例如,高昂的推理成本使其暂时难以在消费级硬件上普及、模型的长期稳定性仍有提升空间、控制的精细度也有待进一步加强。这些将是我们未来持续努力的方向。
目前,LingBot-World 模型权重及推理代码已全面开源,欢迎大家访问我们的开源仓库。
-
Website:
https://technology.robbyant.com/lingbot-world
-
Model:
https://huggingface.co/collections/robbyant/lingbot-world
https://www.modelscope.cn/collections/Robbyant/LingBot-world
-
Code:
https://github.com/Robbyant/lingbot-world
-
Tech Report:
https://github.com/robbyant/lingbot-world/blob/main/LingBot_World_paper.pdf
随着 LingBot 系列多款核心模型的陆续开源,我们正在逐步构建起面向具身智能的技术基座。我们希望通过开源开放,与全球开发者、研究者、产业伙伴一起,共同探索具身智能的上限。也请大家继续关注「蚂蚁灵波开源周」明日的最后一个发布,我们将继续为社区奉上诚意满满的前沿成果。
![图片[5]-世界模型 LingBot-World,正式开源!-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260130010851891-1769706531-2c77878bdd0e09b4c562d1f4e6afc98d.jpeg)
![图片[6]-世界模型 LingBot-World,正式开源!-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260130010852437-1769706532-1e7698fd4caeb77dbde6b72bdd940c02.jpeg)
![图片[7]-世界模型 LingBot-World,正式开源!-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260130010855598-1769706535-34eb7bd03400d6a2fe3c9977f6b237e9.jpeg)
![图片[8]-世界模型 LingBot-World,正式开源!-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260130010856889-1769706536-d402b192ace845500ff9f5545f1e6ecd.jpeg)
![图片[9]-世界模型 LingBot-World,正式开源!-AI Express News](https://www.aiexpress.news/wp-content/uploads/2026/01/20260130010856643-1769706536-57a77e590ea043a82b3c116b43bcba40.gif)
点击「阅读原文」,了解更多
<原文链接:https://mp.weixin.qq.com/s/bqGkL02GjDF6z0c1gCvhZw


















暂无评论内容