2026 年,那么多机器人上春晚,能给大家表演个包饺子吗?相信这是很多人会好奇的一个问题。
但根据最近的彩排报道,这个可能性不大,机器人更有可能被设计为托着托盘呈上饺子。
其实业内人士都知道,如果不靠编程或摇操,让机器人包饺子这事儿远比移动、导航要复杂,还涉及到「饺子皮」这种堪称机器人图灵测试的柔性物体,没有一个足够聪明的「大脑」肯定是做不到的。这也是为什么,在过去的一年,越来越多的研究力量和资金开始涌向「大脑」
阿里达摩院最近的一项工作 ——RynnBrain也瞄准了这一方向。不过和一些表演叠衣服、做早餐的研究不同,他们关注的问题还要更底层一些:如果机器人在做家务的时候被打断,临时去门口接收快递,它还能不能回来接着刷碗?如果机器人被要求完成一件需要借助很多工具的任务,它制定的计划会不会包含手头压根没有的工具?
在关于机器人的各种宏大叙事里,这些问题可能没有那么起眼,甚至连相关的 benchmark 都是缺失的,但却是机器人走出实验室必须迈过的门槛。在 RynnBrain 的构建中,达摩院具身智能团队选择从底层出发,将时空记忆物理空间推理直接训进模型里,并且达到了不错的效果,在 16 项具身的 Benchmark 上实现了 SOTA

面对「三个面包、两个盘子」的约束条件,模型能够进行空间与长程规划,推导出合理的分配方案,体现了其在受限物理条件下的规划与推理能力。

在对杂乱桌面进行分拣规划的过程中,机器人能够在任务被打断后,准确记住已完成的步骤并继续执行,展示了多任务交错下的记忆与规划能力。
达摩院还一口气开源了 RynnBrain 全系列共计 7 个模型,其中包括RynnBrain-30B-A3B。这是业界首个 MoE 具身基础模型,其只需要 3B 的推理激活参数就全面超越了当前规模最大的具身基础模型 Palican-VL-72B。使用这个模型,可以让机器人在保持最强大感知和规划能力的基础上拥有更加快速的动作响应和更加丝滑的行为模式。目前,包括模型权重、评测基准及完整训推代码在内的全套资源均已向社区开放。

- Github链接: https://github.com/alibaba-damo-academy/RynnBrain
- HuggingFace链接: https://huggingface.co/collections/Alibaba-DAMO-Academy/rynnbrain
- 项目主页:https://alibaba-damo-academy.github.io/RynnBrain.github.io/
把大模型塞进机器人?
这事儿真没那么简单
关于具身大脑,业界流传着一个有趣的调侃 ——「把 DeepSeek 等大模型放进宇树不就行了」。当然,做过的人都知道这完全行不通。
本质上,在 2D 世界数据上训练出的模型,在走进物理世界的时候面临的是一个完全不同的环境
还是以机器人包饺子任务为例,在原来的 2D 世界里,顶尖的 VLM(视觉语言模型)早就能够看懂包饺子的完整流程,模型的任务本质上是对静态画面做出理解,不需要与环境交互。而在真实的年夜饭厨房 —— 那个物品散落、空间逼仄的高熵战场 —— 一个仅凭 VLM 语言、视觉经验行事的机器人往往会显得手足无措:比如机器人刚将饺子皮擀好、放上馅料、正准备捏合,但不小心碰倒了旁边的调料瓶,想要拿抹布擦拭但眼前并没有抹布,也想不起来放在哪儿,于是就卡住了。再比如,它「看到」桌上有馅料,便自信地规划出「用挖馅勺取馅」的动作,却对「挖馅勺没有被拿上桌」这一关键缺失视而不见,最终导致任务失败。
这些场景尖锐地揭示出当前通用大模型的局限:它们虽「见多识广」,但在物理世界里往往是「纸上谈兵」,缺乏连续的三维空间感,不懂真实的物理交互逻辑,更难以避免因脱离物理约束而产生的幻觉式规划。
这正是达摩院推出 RynnBrain 所要解决的核心问题。他们的思路是通过系统性地引入时空记忆、物理空间推理等能力,将这个原本「飘在云端」的认知大脑,强行拽回物理世界。
从 RynnEC 到 RynnBrain
让大模型长出「物理直觉」
让大模型扎根物理世界不是一蹴而就的。在 RynnBrain 之前,达摩院还做过一项奠基性的研究 ——RynnEC。
简单来说,RynnEC 就像给大模型赋予一双「眼睛」。它可以精确回答关于物体(属性、数量、功能、分割等)或空间(以自我为中心的世界感知 + 以世界为中心的尺度感知)的问题。比如在执行「将平板电脑放到书架上」这个任务时,它会先思考「电脑有多宽,能不能放书架上不掉下来?」;而在伸手拿酱油之前,它会先算一下自己和酱油瓶之间的距离,判断原地不动能不能够得着