分享好友 健康资讯首页 健康资讯分类 切换频道

只演示一次,机器人就会干活了?北大&BeingBeyond联合团队用“分层小脑+仿真分身”让G1零样本上岗

2025-11-14 11:1724036kr

近日,来自北京大学与BeingBeyond的研究团队提出DemoHLM框架,为人形机器人移动操作(loco-manipulation)领域提供一种新思路——仅需1次仿真环境中的人类演示,即可自动生成海量训练数据,实现真实人形机器人在多任务场景下的泛化操作,有效解决了传统方法依赖硬编码、真实数据成本高、跨场景泛化差的核心痛点。

核心挑战:人形机器人移动操作的“三重困境”

移动操作是人形机器人融入人类环境的核心能力(如搬箱子、开门、递物等),但长期受限于三大难题:

现有方案要么局限于仿真场景,要么需消耗数百小时真实遥操作数据,难以满足家庭、工业等复杂场景的实用需求。

DemoHLM:分层架构与数据生成革新,破解三重困境

DemoHLM的核心创新在于“分层控制+单演示数据生成”双引擎,既保证了全身运动的稳定性,又实现了极低数据成本下的泛化学习。

分层控制架构:兼顾灵活性与稳定性

DemoHLM采用“低层全身控制器+高层操作策略”的分层设计,解耦“运动控制”与“任务决策”:

此外,团队为机器人设计了2DoF主动颈部+RGBD相机(Intel RealSense D435),通过比例控制器实现“视觉追踪稳定”,模仿人类操作时的视线调节能力,避免物体遮挡导致的感知失效。

单演示数据生成:从“1次演示”到“千条轨迹”

DemoHLM最关键的突破是无需真实数据,仅用1次仿真遥操作演示即可生成海量多样化训练数据,核心流程分三步:

预操作阶段:采用“物体中心坐标系”,确保机器人在不同物体初始位姿下,末端执行器能精准对齐目标;

操作阶段:切换为“本体感知坐标系”,解决抓取/搬运时末端与物体相对静止的轨迹生成难题;

这一过程完全自动化,规避了传统模仿学习“数据采集地狱”,同时通过随机化初始条件,天然提升了策略的泛化能力。

实验验证:从仿真到真实的稳定表现

团队在仿真环境(IsaacGym)真实Unitree G1机器人上,针对10项移动操作任务(如搬箱子、开门、倒水、递物等)开展全面验证,核心结果如下:

仿真:数据量与性能正相关,算法兼容性强

Real-World:Sim-to-Real迁移稳定,多任务落地

在改装后的Unitree G1(加装3D打印夹爪、2DoF颈部和单目RGBD相机)上,DemoHLM实现零样本迁移,10项任务中:

关键原因在于:高层策略通过视觉闭环实时调整指令,抵消了仿真与真实的物理差异(如关节跟踪误差),确保操作行为的一致性。

行业价值与未来方向

DemoHLM的突破为人形机器人实用化提供了关键技术支撑:

团队也指出当前局限:依赖仿真数据可能存在长期的Sim-to-Real偏差,单RGB-D相机在复杂遮挡场景性能受限,且暂不支持未建模物体的操作。未来将探索“仿真+真实数据混合训练”“多模态感知融合”等方向,进一步提升鲁棒性。

总结

DemoHLM以“单仿真演示驱动泛化移动操作”为核心,通过分层控制架构与高效数据生成 pipeline,破解了人形机器人训练成本高、泛化差、迁移难的三大痛点。

其在Unitree G1上的真实落地验证,证明了该框架的实用价值,为下一代人形机器人在家庭、工业、服务场景的规模化应用提供了重要技术路径。

论文连接:

https://arxiv.org/pdf/2510.11258

项目主页:

https://beingbeyond.github.io/DemoHLM/

本文来自微信公众号“量子位”,作者:关注前沿科技,36氪经授权发布。

举报
收藏 0
打赏 0
评论 0