論文の概要: OmniRetarget: Interaction-Preserving Data Generation for Humanoid Whole-Body Loco-Manipulation and Scene Interaction
- arxiv url: http://arxiv.org/abs/2509.26633v2
- Date: Wed, 08 Oct 2025 23:16:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 15:34:28.732372
- Title: OmniRetarget: Interaction-Preserving Data Generation for Humanoid Whole-Body Loco-Manipulation and Scene Interaction
- Title(参考訳): OmniRetarget:ヒューマノイド全体のロコ操作とシーンインタラクションのためのインタラクション保存データ生成
- Authors: Lujie Yang, Xiaoyu Huang, Zhen Wu, Angjoo Kanazawa, Pieter Abbeel, Carmelo Sferrazza, C. Karen Liu, Rocky Duan, Guanya Shi,
- Abstract要約: ヒューマノイドロボットの複雑なスキルを教えるための主要なパラダイムは、強化学習ポリシーの運動学的参照として人間の動きを再ターゲットすることである。
インタラクションメッシュに基づくインタラクション保存データ生成エンジンであるOmniRetargetを紹介する。
人間のメッシュとロボットメッシュの間のラプラシアの変形を最小限にすることで、OmniRetargetは運動学的に実現可能な軌道を生成する。
- 参考スコア(独自算出の注目度): 76.44108003274955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A dominant paradigm for teaching humanoid robots complex skills is to retarget human motions as kinematic references to train reinforcement learning (RL) policies. However, existing retargeting pipelines often struggle with the significant embodiment gap between humans and robots, producing physically implausible artifacts like foot-skating and penetration. More importantly, common retargeting methods neglect the rich human-object and human-environment interactions essential for expressive locomotion and loco-manipulation. To address this, we introduce OmniRetarget, an interaction-preserving data generation engine based on an interaction mesh that explicitly models and preserves the crucial spatial and contact relationships between an agent, the terrain, and manipulated objects. By minimizing the Laplacian deformation between the human and robot meshes while enforcing kinematic constraints, OmniRetarget generates kinematically feasible trajectories. Moreover, preserving task-relevant interactions enables efficient data augmentation, from a single demonstration to different robot embodiments, terrains, and object configurations. We comprehensively evaluate OmniRetarget by retargeting motions from OMOMO, LAFAN1, and our in-house MoCap datasets, generating over 8-hour trajectories that achieve better kinematic constraint satisfaction and contact preservation than widely used baselines. Such high-quality data enables proprioceptive RL policies to successfully execute long-horizon (up to 30 seconds) parkour and loco-manipulation skills on a Unitree G1 humanoid, trained with only 5 reward terms and simple domain randomization shared by all tasks, without any learning curriculum.
- Abstract(参考訳): ヒューマノイドロボットの複雑なスキルを教えるための主要なパラダイムは、列車補強学習(RL)ポリシーの運動学的参照として人間の動きを再ターゲットすることである。
しかし、既存のリターゲティングパイプラインは人間とロボットの間の大きなエンボディメントギャップに苦しむことが多く、足のスケートや浸透のような物理的に不確実な人工物を生み出している。
さらに重要なことは、共通のリターゲティング手法は、表現的移動とロコ操作に不可欠なリッチな人・物・環境相互作用を無視していることである。
この問題を解決するために,対話メッシュに基づくインタラクション保存データ生成エンジンであるOmniRetargetを紹介し,エージェント,地形,操作対象間の重要な空間的および接触関係をモデル化し,保存する。
OmniRetargetは、人間とロボットのメッシュ間のラプラシアの変形を最小限に抑えつつ、運動学的制約を強制することにより、運動学的に実現可能な軌道を生成する。
さらに、タスク関連インタラクションを保存することで、単一のデモから異なるロボットの実施形態、地形、オブジェクト構成に至るまで、効率的なデータ拡張が可能になる。
OmniRetargetは,OMOMO,LAFAN1,および社内のMoCapデータセットの動作を再ターゲティングすることで総合的に評価し,広く使用されているベースラインよりもキネマティック制約満足度と接触保存性が向上する8時間以上のトラジェクトリを生成する。
このような高品質なデータは、学習カリキュラムなしで5つの報酬項とすべてのタスクで共有される単純なドメインランダム化で訓練されたUnitree G1ヒューマノイド上で、長い水平(最大30秒)パーキングとロコ操作のスキルをうまく実行することができる。
関連論文リスト
- SimGenHOI: Physically Realistic Whole-Body Humanoid-Object Interaction via Generative Modeling and Reinforcement Learning [6.255814224573073]
SimGenHOIは、生成モデリングと強化学習の強みを組み合わせた統一的なフレームワークであり、制御可能で物理的に妥当なHOIを生成する。
本研究では,Diffusion Transformers (DiT) に基づくHOI生成モデルを用いて,テキストプロンプト,オブジェクト形状,スパースオブジェクトウェイポイント,初期ヒューマノイドポーズのセットを予測した。
身体的現実性を確保するため,強化学習で訓練された接触認識全身制御ポリシーを設計し,その動作をトラッキングし,侵入や足の滑りなどのアーティファクトを補正する。
論文 参考訳(メタデータ) (2025-08-18T15:20:46Z) - 3HANDS Dataset: Learning from Humans for Generating Naturalistic Handovers with Supernumerary Robotic Limbs [64.99122701615151]
スーパー数式ロボットアーム(英: Supernumerary Robotics limbs、SRL)は、ユーザーの身体と密に統合されたロボット構造である。
3HANDSは,日常活動を行う参加者と,ヒップマウントSRLを自然な方法で実施する参加者との間の,オブジェクトハンドオーバインタラクションの新たなデータセットである。
本稿では,自然なハンドオーバ軌跡を生成する3つのモデル,適切なハンドオーバエンドポイントを決定する1つのモデル,ハンドオーバ開始のタイミングを予測する3つのモデルを提案する。
論文 参考訳(メタデータ) (2025-03-06T17:23:55Z) - Human-Humanoid Robots Cross-Embodiment Behavior-Skill Transfer Using Decomposed Adversarial Learning from Demonstration [9.42179962375058]
本稿では,デジタル人間モデルを共通プロトタイプとして使用することにより,データのボトルネックを低減するための転送可能なフレームワークを提案する。
このモデルは、人間による実演から、敵対的な模倣を通して行動プリミティブを学習し、複雑なロボット構造を機能的な構成要素に分解する。
本フレームワークは,多種多様な構成のヒューマノイドロボット5体を用いて検証した。
論文 参考訳(メタデータ) (2024-12-19T18:41:45Z) - Learning Multimodal Latent Dynamics for Human-Robot Interaction [18.68936554172693]
本稿では,ヒト-ヒトインタラクション(HHI)から協調型人間-ロボットインタラクション(HRI)を学習する方法を提案する。
本研究では,隠れマルコフモデル(HMM)を変分オートエンコーダの潜在空間として用いて,相互作用するエージェントの結合分布をモデル化するハイブリッドアプローチを考案する。
利用者は,我々の手法を,より人間らしく,タイムリーで,正確なものと認識し,他の基準よりも高い選好度で評価する。
論文 参考訳(メタデータ) (2023-11-27T23:56:59Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Regularized Deep Signed Distance Fields for Reactive Motion Generation [30.792481441975585]
距離に基づく制約は、ロボットが自分の行動を計画し、安全に行動できるようにするための基本となる。
本研究では,任意のスケールでスムーズな距離場を計算できる単一暗黙関数ReDSDFを提案する。
共有作業空間における全身制御(WBC)と安全なヒューマンロボットインタラクション(HRI)のための代表的タスクにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-03-09T14:21:32Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。