論文の概要: InterPrior: Scaling Generative Control for Physics-Based Human-Object Interactions
- arxiv url: http://arxiv.org/abs/2602.06035v1
- Date: Thu, 05 Feb 2026 18:59:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.153745
- Title: InterPrior: Scaling Generative Control for Physics-Based Human-Object Interactions
- Title(参考訳): InterPrior:物理に基づくヒューマンオブジェクトインタラクションのための生成制御のスケーリング
- Authors: Sirui Xu, Samuel Schulter, Morteza Ziyadi, Xialin He, Xiaohan Fei, Yu-Xiong Wang, Liangyan Gui,
- Abstract要約: 人間は、明示的な全身運動のレベルで、物体と全身の相互作用を計画することは滅多にない。
このような事前のスケーリングは、ヒューマノイドがロコ操作スキルの構築と一般化を可能にする鍵となる。
我々は,強化学習による大規模模倣事前学習とポストトレーニングを通じて,統合生成コントローラを学習するフレームワークであるInterPriorを紹介する。
- 参考スコア(独自算出の注目度): 58.329946838699044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans rarely plan whole-body interactions with objects at the level of explicit whole-body movements. High-level intentions, such as affordance, define the goal, while coordinated balance, contact, and manipulation can emerge naturally from underlying physical and motor priors. Scaling such priors is key to enabling humanoids to compose and generalize loco-manipulation skills across diverse contexts while maintaining physically coherent whole-body coordination. To this end, we introduce InterPrior, a scalable framework that learns a unified generative controller through large-scale imitation pretraining and post-training by reinforcement learning. InterPrior first distills a full-reference imitation expert into a versatile, goal-conditioned variational policy that reconstructs motion from multimodal observations and high-level intent. While the distilled policy reconstructs training behaviors, it does not generalize reliably due to the vast configuration space of large-scale human-object interactions. To address this, we apply data augmentation with physical perturbations, and then perform reinforcement learning finetuning to improve competence on unseen goals and initializations. Together, these steps consolidate the reconstructed latent skills into a valid manifold, yielding a motion prior that generalizes beyond the training data, e.g., it can incorporate new behaviors such as interactions with unseen objects. We further demonstrate its effectiveness for user-interactive control and its potential for real robot deployment.
- Abstract(参考訳): 人間は、明示的な全身運動のレベルで、物体と全身の相互作用を計画することは滅多にない。
余裕のような高レベルな意図は目標を定義するが、調整されたバランス、接触、操作は、基礎となる物理と運動の先駆者から自然に現れる。
このような事前のスケーリングは、物理的に整合した体全体の調整を維持しながら、さまざまなコンテキストでヒューマノイドがロコ操作スキルを構成、一般化する上で鍵となる。
そこで本研究では,拡張学習による大規模模倣事前学習とポストトレーニングを通じて,統合生成コントローラを学習するスケーラブルなフレームワークであるInterPriorを紹介する。
InterPriorはまず、完全な参照模倣の専門家を多モード観測と高レベルの意図から動きを再構築する多目的で目標条件の変動ポリシーに蒸留する。
蒸留された政策は訓練行動を再構築するが、大規模な人間と物体の相互作用の広大な構成空間のため、確実に一般化しない。
そこで本研究では,データ拡張を物理的摂動に応用し,強化学習の微調整を行い,未知の目標と初期化の能力を向上させる。
これらのステップを合わせて、再構成された潜在スキルを有効な多様体に集約し、トレーニングデータを超えて一般化する動き、例えば、目に見えないオブジェクトとの相互作用のような新しい振る舞いを組み込むことができる。
さらに,ユーザインタラクション制御の有効性と,実際のロボット展開の可能性を示す。
関連論文リスト
- Learning Whole-Body Human-Humanoid Interaction from Human-Human Demonstrations [63.80827184637476]
D-STAR(D-STAR)は,行動すべき場所から行動すべき場所を乱す階層的な政策である。
広範かつ厳密なシミュレーションを通じて、我々のフレームワークを検証する。
論文 参考訳(メタデータ) (2026-01-14T14:37:06Z) - Interact2Ar: Full-Body Human-Human Interaction Generation via Autoregressive Diffusion Models [80.28579390566298]
テキスト条件付き自己回帰拡散モデルであるInteract2Arを導入する。
ハンドキネマティクスは専用のパラレルブランチを通じて組み込まれ、高忠実度フルボディ生成を可能にする。
我々のモデルは、時間的動きの合成、外乱へのリアルタイム適応、ディヤディックからマルチパーソンシナリオへの拡張など、一連のダウンストリームアプリケーションを可能にする。
論文 参考訳(メタデータ) (2025-12-22T18:59:50Z) - OmniRetarget: Interaction-Preserving Data Generation for Humanoid Whole-Body Loco-Manipulation and Scene Interaction [76.44108003274955]
ヒューマノイドロボットの複雑なスキルを教えるための主要なパラダイムは、強化学習ポリシーの運動学的参照として人間の動きを再ターゲットすることである。
インタラクションメッシュに基づくインタラクション保存データ生成エンジンであるOmniRetargetを紹介する。
人間のメッシュとロボットメッシュの間のラプラシアの変形を最小限にすることで、OmniRetargetは運動学的に実現可能な軌道を生成する。
論文 参考訳(メタデータ) (2025-09-30T17:59:02Z) - InterMimic: Towards Universal Whole-Body Control for Physics-Based Human-Object Interactions [27.225777494300775]
このフレームワークは、単一のポリシーで、何時間も不完全なMoCapデータからしっかりと学習することができる。
実験の結果,InterMimicは複数のHOIデータセットにまたがって,現実的で多様なインタラクションを生成できることがわかった。
論文 参考訳(メタデータ) (2025-02-27T18:59:12Z) - Physically Plausible Full-Body Hand-Object Interaction Synthesis [32.83908152822006]
そこで本研究では,全体で手-物体間相互作用を合成するための物理に基づく手法を提案する。
既存のメソッドは、しばしば相互作用プロセスの分離されたセグメントにフォーカスし、成果物をもたらす可能性のあるデータ駆動技術に依存します。
論文 参考訳(メタデータ) (2023-09-14T17:55:18Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。