論文の概要: Rhythm: Learning Interactive Whole-Body Control for Dual Humanoids
- arxiv url: http://arxiv.org/abs/2603.02856v1
- Date: Tue, 03 Mar 2026 11:04:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.854864
- Title: Rhythm: Learning Interactive Whole-Body Control for Dual Humanoids
- Title(参考訳): リズム:デュアルヒューマノイドのための対話型全体制御
- Authors: Hongjin Chen, Wei Zhang, Pengfei Li, Shihao Ma, Ke Ma, Yujie Jin, Zijun Xu, Xiaohui Wang, Yupeng Zheng, Zining Wang, Jieru Zhao, Yilun Chen, Wenchao Ding,
- Abstract要約: 我々はRhythmを紹介した。Rhythmは、複雑で物理的に妥当な相互作用のためのデュアルヒューマノイドシステムの現実的な展開を可能にする最初の統一フレームワークである。
本フレームワークは,(1)人間データから実現可能なヒューマノイドインタラクション参照を生成するIAMRモジュール,(2)グラフベースの報酬を通じて結合力学をマスターするIGRLポリシ,(3)デュアルヒューマノイドインタラクションの堅牢な転送を可能にする実世界展開システム,の3つのコアコンポーネントを統合した。
- 参考スコア(独自算出の注目度): 25.74949263474117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Realizing interactive whole-body control for multi-humanoid systems is critical for unlocking complex collaborative capabilities in shared environments. Although recent advancements have significantly enhanced the agility of individual robots, bridging the gap to physically coupled multi-humanoid interaction remains challenging, primarily due to severe kinematic mismatches and complex contact dynamics. To address this, we introduce Rhythm, the first unified framework enabling real-world deployment of dual-humanoid systems for complex, physically plausible interactions. Our framework integrates three core components: (1) an Interaction-Aware Motion Retargeting (IAMR) module that generates feasible humanoid interaction references from human data; (2) an Interaction-Guided Reinforcement Learning (IGRL) policy that masters coupled dynamics via graph-based rewards; and (3) a real-world deployment system that enables robust transfer of dual-humanoid interaction. Extensive experiments on physical Unitree G1 robots demonstrate that our framework achieves robust interactive whole-body control, successfully transferring diverse behaviors such as hugging and dancing from simulation to reality.
- Abstract(参考訳): マルチヒューマノイドシステムのための対話型全身制御の実現は、共有環境における複雑な協調機能を解き放つ上で重要である。
最近の進歩は個々のロボットの俊敏性を大幅に向上させたが、物理的に結合したマルチヒューマノイド相互作用へのギャップを埋めることは、主に激しい体操ミスマッチと複雑な接触ダイナミクスのために難しいままである。
そこで我々はRhythmを紹介した。Rhythmは、複雑で物理的に妥当なインタラクションのためのデュアルヒューマノイドシステムの現実的な展開を可能にする最初の統一フレームワークである。
本フレームワークは,(1)人間データから実現可能なヒューマノイドインタラクション参照を生成するIAMRモジュール,(2)グラフベースの報酬を通じて結合力学をマスターするIGRLポリシ,(3)デュアルヒューマノイドインタラクションの堅牢な転送を可能にする実世界展開システム,の3つのコアコンポーネントを統合した。
物理Unitree G1ロボットの大規模な実験により、我々のフレームワークは堅牢な対話型全身制御を実現し、ハグやダンスなどの多様な動作をシミュレーションから現実に転送することに成功した。
関連論文リスト
- InterReal: A Unified Physics-Based Imitation Framework for Learning Human-Object Interaction Skills [16.31202379413011]
我々は,現実世界の人間-物体間相互作用(HOI)制御のための統合物理学に基づく模倣学習フレームワークを開発した。
InterRealは、人間型ロボットがHOI参照動作をトラッキングし、きめ細かい対話的スキルの学習を容易にする。
クリティカルトラッキングエラーメトリクスによって導かれるメタ政治は、低レベルの強化学習目標に対して報酬信号を探索し、割り当てる。
論文 参考訳(メタデータ) (2026-03-08T07:44:35Z) - Towards Immersive Human-X Interaction: A Real-Time Framework for Physically Plausible Motion Synthesis [51.95817740348585]
Human-Xは、様々な実体をまたいだ没入的で物理的に妥当なヒューマンインタラクションを可能にするために設計された、新しいフレームワークである。
本手法は, 自己回帰型反応拡散プランナを用いて, リアルタイムに反応と反応を同時予測する。
我々のフレームワークは、人間とロボットのインタラクションのための仮想現実インターフェースを含む、現実世界のアプリケーションで検証されている。
論文 参考訳(メタデータ) (2025-08-04T06:35:48Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。