
文章摘要
【关 键 词】 机器人、强化学习、动作重定向、人形机器人、交互网格
亚马逊机器人团队FAR发布了名为OmniRetarget的人形机器人研究成果,该系统能够在完全无视觉感知的情况下完成复杂动作。OmniRetarget通过交互网格建模机器人、物体和地形之间的空间关系,实现了从人类示范到机器人动作的高保真迁移。这一创新方法不仅保留了关键交互信息,还能通过数据增强生成多样化运动学参考。
核心技术在于交互网格的构建与优化。研究人员将人类关节、物体和环境采样点组成体积结构,通过德劳内四面体化和拉普拉斯形变能最小化,在保持接触关系的前提下实现动作重定向。该方法采用约束非凸优化求解机器人配置,满足碰撞避免、关节限制等硬约束,确保动作的物理可行性。通过参数化改变物体配置和地形特征,单个演示可衍生出数百种变体,大幅降低数据收集成本。
在强化学习阶段,系统仅依赖本体感知和参考轨迹进行训练。五类奖励机制结合领域随机化技术,使策略能高精度跟踪增强后的运动学参考。实验显示,完整增强数据集的策略成功率(79.1%)接近标称动作水平(82.2%),验证了数据增强的有效性。与PHC、GMR等基线相比,OmniRetarget在运动学质量和下游策略性能上均领先10%以上,尤其在接触保留和脚部防滑指标表现突出。
该研究由亚马逊新成立的FAR团队完成,其核心成员来自知名机器人公司Covariant。团队负责人Rocky Duan及其导师Pieter Abbeel在机器人学习领域具有深厚积累。此次展示的宇树G1机器人实现了持续30秒的多阶段跑酷动作,包括搬运、攀爬和空翻等高难度操作,展现了技术方案的通用性和鲁棒性。这项突破为人形机器人的实际应用开辟了新路径,特别是在需要复杂移-操一体技能的工业场景中具有重要潜力。
原文和模型
【原文链接】 阅读原文 [ 2288字 | 10分钟 ]
【原文作者】 量子位
【摘要模型】 deepseek/deepseek-v3-0324
【摘要评分】 ★★★★☆