——Franka机器人渠道、市场、销售负责
——学术背景来自于哈尔滨工业大学、多伦多大学
全国咨询热线:
400 188 3810
Franka机器人专线
18018175378(同微信)

CoRL2025最新论文ImMimic 佐治亚理工提出一种用于机器人操控任务的新型跨域模仿学习框架,旨在缩小人类视频示范

发表时间:2025-10-01 02:32作者:PNP机器人
CoRL2025最新论文 佐治亚理工:ImMimic: Cross-Domain Imitation from Human Videos via Mapping and Interpolation 提出一种用于机器人操控任务的新型跨域模仿学习框架,旨在缩小人类视频示范(human videos)与真实机器人操作之间在外观、形态和物理交互上的域差异。该框架名为 ImMimic,结合少量机器人遥控示范数据(robot demonstrations)与大量人类视频,通过动态时间扭曲(DTW)映射手部轨迹到机器人关节,再用 MixUp 插值(interpolation)在人类轨迹与机器人轨迹之间创造中间域,以共同训练(co-training)策略。
实验证明,在四种真实操作任务(Pick and Place, Push, Hammer, Flip)以及四种不同机器人的实体手爪或手(Robotiq, Fin Ray, Allegro, Ability)上,ImMimic 能显著提升成功率与动作流畅性,这为从人类视频中大规模学习机器人操作提供了可行路径。
一、研究动机与挑战
机器人模仿学习中,用人类演示数据比纯机器人示范具有极大优势——人类视频丰富、成本低、覆盖场景广。但直接用人类视频训练机器人策略面临若干挑战:
  • 外观视觉差异(Visual Domain Gap):人类手、背景、环境光照和摄像视角与机器人相机视角差别大。
  • 形态差异(Morphological Gap):人类手的自由度、尺寸与机器人手爪或手臂结构不同,关节数量不同,动作空间不同。
  • 物理交互差异(Physical / Dynamic Gap):摩擦、质量、接触力反馈等在做 Hammer、Push 等任务时差异明显,人类操作不一定与机器人的动作可一一对应。
因此,ImMimic 的目标是设计一个系统,既能利用大量人类视频示范带来的丰富语料,也用少量机器人示范提供机器人动作标注(action labels),并通过策略使两者互补,克服这些域差异。
二、方法:映射 + 插值 + 共训练
ImMimic 的核心方法包括以下组件:
数据来源
大量人类视频:只需要视频中人的手部轨迹能被估计/重定向(hand-pose retargeting)。
少量机器人示范:通过视觉遥操作(teleoperation)或其他方式,获取机器人在同类任务中的状态-动作轨迹。
映射 (Mapping)
为了将人类手部运动“对应”到机器人动作空间中,ImMimic 使用动态时间扭曲(Dynamic Time Warping, DTW)。映射可以基于动作(action-based)或者基于视觉/特征(visual-based)。
  • 动作映射:直接用手部重定向轨迹作为动作标注,并与机器人动作对齐。
  • 视觉映射:通过视觉特征来对齐两条轨迹在视觉空间的相似性。
插值 (Interpolation / MixUp)
  • 将经过映射的人类轨迹与机器人轨迹配对(paired trajectories)。
  • 使用 MixUp 等插值技术在两者之间生成中间样本,这些“中间域”在共训练过程中作为过渡,使学习过程中域差异变得平滑,使策略更容易适应从人类域到机器人域的迁移。
共训练 (Co-Training)
使用人类示范(经映射与插值后的轨迹)与真实机器人示范同时训练策略。策略接收来自两种数据的状态观测与动作目标,优化目标包括任务成功率、动作重构误差、轨迹一致性等。
三、实验设置与结果
论文在多个维度上评估 ImMimic 的性能:
任务与机器人种类:四个操作任务(Pick and Place, Push, Hammer, Flip);四种机器人结构/抓手类型(Robotiq 抓手、Fin Ray 抓手、Allegro 手、Ability 手)以测试形态差异下的泛化能力。
基线比较:与只用机器人示范训练(Robot-Only)、只做共训练但没有插值、随机映射 (Random Mapping) 等方法进行对比。
主要指标:任务成功率(success rate)、动作执行的平滑性(execution smoothness)、样本效率即多少人类视频 + 多少机器人数据能达到多少性能提升。
结果总结:
  • ImMimic 在大多数任务和机器人结构上比 Robot-Only 基线高出显著成功率。
  • 在使用少量机器人示范(例如很少的 robot demos)加上大量人类视频后,ImMimic 的表现往往接近或超过基线需要更多 robot 示范才能达到的水平。
  • 使用动作映射 (action-based mapping) 的版本通常比视觉映射版本稍好一些。
额外评估:插值操作带来的中间域在训练过程中能使特征空间中人类与机器人的分布更加连贯,减少域差异带来的突变/不稳定性。可视化如 t-SNE 等分析显示插值后的样本在视觉/动作特征空间中与机器人范例更接近。
四、优点与局限性
优点
  • 有效利用人类视频资源:人类视频远比机器人示范容易获取,ImMimic 减少了对机器人大规模示范的依赖。
  • 域差异处理较好:通过映射 + 插值,中间域使得策略学习时更平滑地从人类域过渡到机器人域。
  • 适应多种形态结构:支持不同机器人的手爪或手结构,表明方法具有较强的泛化能力。
  • 样本效率改善:借助人类示范,可以在机器人示范稀少的情况下取得良好性能。
局限性
  • 映射质量依赖于手部重定向和 DTW 对齐:如果对人类视频中手部估计不准确、遮挡严重、视角极端,则映射误差可能很大,影响后续的插值与训练。
  • 动作迁移的物理可行性:有些人类动作在物理上对某些机器结构不可能或者难以实现(例如速度、力量、自由度限制),即使插值出现中间域,也可能违反机器人的物理可达性或安全边界。
  • 视频质量与环境多样性:如果人类视频背景千差万别、光照/摄像设备差异大,视觉特征域差距仍可能造成模型训练困难。
  • 任务复杂性限制:四个任务都是相对基础的操作(Pick & Place, Push, Hammer, Flip)。对于更长序列任务、复杂工件操作或者需精密对齐的动作,其适用性还未验证。
五、与其他工作的比较
ImMimic 在跨域模仿学习中与多个现有方向有交集与区别:
  • 与 行为克隆 (Behavioral Cloning, BC) 仅用机器人操作数据的工作比,ImMimic 能从人类视频中获益,提高样本效率。
  • 与 共训练 (Co-Training) 类方法相比,ImMimic 引入插值(MixUp)机制来生成中间域样本,而不是简单将 human 和 robot 示例混合,这样有助于缓解域跳变问题。
  • 与 动作映射 / 重定向 (Hand-pose Retargeting etc.) 类似工作相似,但 ImMimic 中的 DTW + 插值使映射更加灵活与适应性更强。
  • 与 UniSkill, EgoMimic 等近似的跨形态技能学习方法对比,ImMimic 更强调映射与插值在轨迹维度上的混合,从而在少量机器人数据的情形下仍能得到好性能。UniSkill 等可能更侧重于技能表示的通用性。
六、未来方向与总结
未来方向
  • 扩展任务类型与难度:向长时序操作任务(multi-step)、复杂装配/堆叠/精确插入任务扩展。
  • 提升手部重定向与视觉估计的鲁棒性:改进遮挡处理、视角不一致性、低分辨率/模糊视频的适应能力。
  • 增加物理反馈与感知融合:引入触觉/力反馈,让策略不仅靠视觉和轨迹,还能适应实际力学限制。
  • 在真实机器人与工业应用中部署与验证:把方法应用到真实机器人操作手臂和抓手系统中(例如 FRANKA,或与 PNP 机器人合作提供硬件支持),验证在现实复杂环境中的效果与可靠性。
总结
ImMimic 是一项有前景的研究工作,它在处理人类视频与机器人操作之间的跨域挑战方面提出了映射 + 插值 + 共训练的有效组合。在多个任务和机器人结构上展示了较好的成功率与动作流畅性,尤其在机器人示范数据稀少时,能显著提升样本效率。虽然在映射误差、任务复杂性、物理可行性等方面仍有挑战,但这个方向为通过大规模人类视频来加速机器人学习开辟了一条实用路径。
如果你愿意,我可以写一个带伪代码版本来展示 ImMimic 的算法细节,或者一个对某个任务(比如 Hammer 或 Flip)在真实机器人上的具体应用案例分析。要这样吗?
文/PNP机器人,转载请授权

<<<  END >>>


关于集智联机器/PNP机器人

集智联机器人(Plug & Play Robotics),简称PNP机器人。PNP机器人团队成员均来自于ABB、Uninversal Robots(优傲机器人)等国内外机器人行业知名企业,学术背景来自于哈尔滨工业大学、多伦多大学、滑铁卢大学等,具有较强的学术背景。PNP机器人致力于为客户提供从硬件到软件的全方位支持,帮助客户快速实现机器人的部署与应用,提升生产效率和智能化水平


PNP机器人成立以来,先后获得“江苏省双创人才”、“姑苏领军”、“崇本领军、“吴江领军”等人才领军企业称号,公司具有较强科研能力,公司持续研发投入拥有技术发明等多项专利,是高新技术企业,科技中小企业;得益于推动在具身智能领域的最新技术和落地,PNP机器人获得”2024年中国科研贡献奖“

PNP机器人在具身智能方向和思灵机器人以及旗下Franka机器人金牌合作,聚焦面向生活和工业场景的单臂/双臂数据采集场景,致力于机器人即插即用(Plug & Play)技术和具身智能通用解决方案。

www.pnprobotics.com   (PNP机器人官方网站)

sales@pnprobotics.com (官方邮箱/Email Add.)

180 1817 5378(微信同号)


关注具身智能,关注PNP公众号

图片

具身智能技术对接/具身群

180 1817 5378(微信同号)

图片


Plug & Play Robotics
集智联机器人(苏州)有限公司

联系信息                            联系电话:86 138 1609 4093         联系邮箱:sales@plugplayrobotics.com            联系地址:江苏省苏州市吴江智能制造产业园C1栋