論文の概要: InterReal: A Unified Physics-Based Imitation Framework for Learning Human-Object Interaction Skills
- arxiv url: http://arxiv.org/abs/2603.07516v1
- Date: Sun, 08 Mar 2026 07:44:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.705876
- Title: InterReal: A Unified Physics-Based Imitation Framework for Learning Human-Object Interaction Skills
- Title(参考訳): InterReal:人間と物体のインタラクションスキルを学習するための統一された物理ベースの模倣フレームワーク
- Authors: Dayang Liang, Yuhang Lin, Xinzhe Liu, Jiyuan Shi, Yunlong Liu, Chenjia Bai,
- Abstract要約: 我々は,現実世界の人間-物体間相互作用(HOI)制御のための統合物理学に基づく模倣学習フレームワークを開発した。
InterRealは、人間型ロボットがHOI参照動作をトラッキングし、きめ細かい対話的スキルの学習を容易にする。
クリティカルトラッキングエラーメトリクスによって導かれるメタ政治は、低レベルの強化学習目標に対して報酬信号を探索し、割り当てる。
- 参考スコア(独自算出の注目度): 16.31202379413011
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interaction is one of the core abilities of humanoid robots. However, most existing frameworks focus on non-interactive whole-body control, which limits their practical applicability. In this work, we develop InterReal, a unified physics-based imitation learning framework for Real-world human-object Interaction (HOI) control. InterReal enables humanoid robots to track HOI reference motions, facilitating the learning of fine-grained interactive skills and their deployment in real-world settings. Within this framework, we first introduce a HOI motion data augmentation scheme with hand-object contact constraints, and utilize the augmented motions to improve policy stability under object perturbations. Second, we propose an automatic reward learner to address the challenge of large-scale reward shaping. A meta-policy guided by critical tracking error metrics explores and allocates reward signals to the low-level reinforcement learning objective, which enables more effective learning of interactive policies. Experiments on HOI tasks of box-picking and box-pushing demonstrate that InterReal achieves the best tracking accuracy and the highest task success rate compared to recent baselines. Furthermore, we validate the framework on the real-world robot Unitree G1, which demonstrates its practical effectiveness and robustness beyond simulation.
- Abstract(参考訳): インタラクションは、ヒューマノイドロボットのコア能力の1つだ。
しかし,既存のフレームワークのほとんどは,非インタラクティブな全身制御に重点を置いているため,実用性は制限されている。
本研究では,現実世界の人間-物体間相互作用(HOI)制御のための物理に基づく統一的な模倣学習フレームワークであるInterRealを開発する。
InterRealは、人間型ロボットがHOI参照動作を追跡し、より詳細な対話的スキルの学習と実際の環境への展開を容易にする。
本フレームワークでは,手動接触制約付きHOI動作データ拡張方式を導入し,対象摂動下でのポリシー安定性向上のために拡張動作を利用する。
第2に,大規模な報酬形成の課題に対処する自動報酬学習者を提案する。
クリティカルトラッキングエラーメトリクスによって導かれるメタ政治は、低レベルの強化学習目標に対して報酬信号を探索し、割り当て、インタラクティブなポリシーをより効果的に学習することを可能にする。
ボックスピッキングとボックスプッシングのHOIタスクの実験は、InterRealが最近のベースラインと比較して最高のトラッキング精度とタスク成功率を達成することを示した。
さらに,実世界のロボットUnitree G1の枠組みを検証し,その実用性と,シミュレーション以外の堅牢性を実証した。
関連論文リスト
- Scalable Dexterous Robot Learning with AR-based Remote Human-Robot Interactions [8.111267700755986]
本稿では,手軽なロボットアームハンドシステムにおける操作のためのスケーラブルなロボット学習に焦点を当てた。
本稿では,汎用的な操作タスク問題に対処するための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-07T03:47:21Z) - InterPrior: Scaling Generative Control for Physics-Based Human-Object Interactions [58.329946838699044]
人間は、明示的な全身運動のレベルで、物体と全身の相互作用を計画することは滅多にない。
このような事前のスケーリングは、ヒューマノイドがロコ操作スキルの構築と一般化を可能にする鍵となる。
我々は,強化学習による大規模模倣事前学習とポストトレーニングを通じて,統合生成コントローラを学習するフレームワークであるInterPriorを紹介する。
論文 参考訳(メタデータ) (2026-02-05T18:59:27Z) - OmniRetarget: Interaction-Preserving Data Generation for Humanoid Whole-Body Loco-Manipulation and Scene Interaction [76.44108003274955]
ヒューマノイドロボットの複雑なスキルを教えるための主要なパラダイムは、強化学習ポリシーの運動学的参照として人間の動きを再ターゲットすることである。
インタラクションメッシュに基づくインタラクション保存データ生成エンジンであるOmniRetargetを紹介する。
人間のメッシュとロボットメッシュの間のラプラシアの変形を最小限にすることで、OmniRetargetは運動学的に実現可能な軌道を生成する。
論文 参考訳(メタデータ) (2025-09-30T17:59:02Z) - Towards Immersive Human-X Interaction: A Real-Time Framework for Physically Plausible Motion Synthesis [51.95817740348585]
Human-Xは、様々な実体をまたいだ没入的で物理的に妥当なヒューマンインタラクションを可能にするために設計された、新しいフレームワークである。
本手法は, 自己回帰型反応拡散プランナを用いて, リアルタイムに反応と反応を同時予測する。
我々のフレームワークは、人間とロボットのインタラクションのための仮想現実インターフェースを含む、現実世界のアプリケーションで検証されている。
論文 参考訳(メタデータ) (2025-08-04T06:35:48Z) - FLEX: A Framework for Learning Robot-Agnostic Force-based Skills Involving Sustained Contact Object Manipulation [9.292150395779332]
本稿では,力空間におけるオブジェクト中心の操作ポリシーを学習するための新しいフレームワークを提案する。
提案手法は, 動作空間を単純化し, 不要な探索を低減し, シミュレーションオーバーヘッドを低減させる。
評価の結果,本手法はベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2025-03-17T17:49:47Z) - InterMimic: Towards Universal Whole-Body Control for Physics-Based Human-Object Interactions [27.225777494300775]
このフレームワークは、単一のポリシーで、何時間も不完全なMoCapデータからしっかりと学習することができる。
実験の結果,InterMimicは複数のHOIデータセットにまたがって,現実的で多様なインタラクションを生成できることがわかった。
論文 参考訳(メタデータ) (2025-02-27T18:59:12Z) - Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - RPMArt: Towards Robust Perception and Manipulation for Articulated Objects [56.73978941406907]
本稿では,Articulated Objects (RPMArt) のロバスト知覚と操作のためのフレームワークを提案する。
RPMArtは、調音パラメータを推定し、雑音の多い点雲から調音部分を操作することを学習する。
我々は,シミュレート・トゥ・リアル・トランスファーの能力を高めるための調音認識型分類手法を提案する。
論文 参考訳(メタデータ) (2024-03-24T05:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。