論文の概要: Learning Whole-Body Human-Humanoid Interaction from Human-Human Demonstrations
- arxiv url: http://arxiv.org/abs/2601.09518v1
- Date: Wed, 14 Jan 2026 14:37:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.429814
- Title: Learning Whole-Body Human-Humanoid Interaction from Human-Human Demonstrations
- Title(参考訳): ヒトとヒトのデモから全身とヒトのヒューマノイド相互作用を学習する
- Authors: Wei-Jin Huang, Yue-Yi Zhang, Yi-Lin Wei, Zhi-Wei Xia, Juantao Tan, Yuan-Ming Li, Zhilin Zhao, Wei-Shi Zheng,
- Abstract要約: D-STAR(D-STAR)は,行動すべき場所から行動すべき場所を乱す階層的な政策である。
広範かつ厳密なシミュレーションを通じて、我々のフレームワークを検証する。
- 参考スコア(独自算出の注目度): 63.80827184637476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Enabling humanoid robots to physically interact with humans is a critical frontier, but progress is hindered by the scarcity of high-quality Human-Humanoid Interaction (HHoI) data. While leveraging abundant Human-Human Interaction (HHI) data presents a scalable alternative, we first demonstrate that standard retargeting fails by breaking the essential contacts. We address this with PAIR (Physics-Aware Interaction Retargeting), a contact-centric, two-stage pipeline that preserves contact semantics across morphology differences to generate physically consistent HHoI data. This high-quality data, however, exposes a second failure: conventional imitation learning policies merely mimic trajectories and lack interactive understanding. We therefore introduce D-STAR (Decoupled Spatio-Temporal Action Reasoner), a hierarchical policy that disentangles when to act from where to act. In D-STAR, Phase Attention (when) and a Multi-Scale Spatial module (where) are fused by the diffusion head to produce synchronized whole-body behaviors beyond mimicry. By decoupling these reasoning streams, our model learns robust temporal phases without being distracted by spatial noise, leading to responsive, synchronized collaboration. We validate our framework through extensive and rigorous simulations, demonstrating significant performance gains over baseline approaches and a complete, effective pipeline for learning complex whole-body interactions from HHI data.
- Abstract(参考訳): 人間と物理的に対話するヒューマノイドロボットを実現することは、重要なフロンティアであるが、高品質なヒューマン・ヒューマノイド相互作用(HhoI)データの不足によって進歩が妨げられている。
豊富なHHI(Human-Human Interaction)データを活用することで、スケーラブルな代替手段が得られます。
PAIR(Physics-Aware Interaction Retargeting)は接触中心の2段階のパイプラインで、形態的相違による接触セマンティクスを保存し、物理的に一貫したHHoIデータを生成する。
従来の模倣学習ポリシーは単に軌道を模倣するだけであり、対話的な理解が欠如している。
そこで我々はD-STAR(Decoupled Spatio-Temporal Action Reasoner)を導入する。
D-STARでは、フェイズアテンション(時)とマルチスケール空間モジュール(時)が拡散ヘッドによって融合され、模倣以外の全身挙動が同期される。
これらの推論ストリームを分離することにより、空間ノイズに気を散らさずに頑健な時間相を学習し、応答性、同期的なコラボレーションをもたらす。
我々は,広範かつ厳密なシミュレーションによるフレームワークの検証を行い,ベースラインアプローチよりも優れたパフォーマンス向上と,HHIデータから複雑な全身インタラクションを学習するための完全かつ効率的なパイプラインを実証した。
関連論文リスト
- Interact2Ar: Full-Body Human-Human Interaction Generation via Autoregressive Diffusion Models [80.28579390566298]
テキスト条件付き自己回帰拡散モデルであるInteract2Arを導入する。
ハンドキネマティクスは専用のパラレルブランチを通じて組み込まれ、高忠実度フルボディ生成を可能にする。
我々のモデルは、時間的動きの合成、外乱へのリアルタイム適応、ディヤディックからマルチパーソンシナリオへの拡張など、一連のダウンストリームアプリケーションを可能にする。
論文 参考訳(メタデータ) (2025-12-22T18:59:50Z) - 3D Human-Human Interaction Anomaly Detection [9.82406406771152]
H2IAD(Human-Human Interaction Anomaly Detection)は、協調的な3D行動における異常な対話的行動を特定することを目的としている。
IADNetはH2IADの既存のHuman-centric ADベースラインを上回っている。
論文 参考訳(メタデータ) (2025-12-15T17:17:55Z) - Incremental Human-Object Interaction Detection with Invariant Relation Representation Learning [24.134958315913888]
オープンワールド環境では、人間と物体の相互作用(HOI)は連続的に進化し、従来のクローズドワールドのHOI検出モデルに挑戦する。
人間の知識獲得能力にインスパイアされた我々は、段階的HOI検出(IHOID)を探求し、このような動的環境における人間と物体の関係を識別できるエージェントを開発する。
IRDはオブジェクトと関係の学習を分離し、同じ関係を持つ異なるHOIの組み合わせで不変な関係の特徴を学習するための2つのユニークな蒸留損失を導入する。
論文 参考訳(メタデータ) (2025-10-30T21:59:34Z) - OmniRetarget: Interaction-Preserving Data Generation for Humanoid Whole-Body Loco-Manipulation and Scene Interaction [76.44108003274955]
ヒューマノイドロボットの複雑なスキルを教えるための主要なパラダイムは、強化学習ポリシーの運動学的参照として人間の動きを再ターゲットすることである。
インタラクションメッシュに基づくインタラクション保存データ生成エンジンであるOmniRetargetを紹介する。
人間のメッシュとロボットメッシュの間のラプラシアの変形を最小限にすることで、OmniRetargetは運動学的に実現可能な軌道を生成する。
論文 参考訳(メタデータ) (2025-09-30T17:59:02Z) - HHI-Assist: A Dataset and Benchmark of Human-Human Interaction in Physical Assistance Scenario [63.77482302352545]
HHI-Assist(ヒヒ・アシスト)は、人間の介助作業における人間のインタラクションのモーションキャプチャークリップからなるデータセットである。
私たちの研究は、ロボット支援ポリシーを大幅に強化する可能性がある。
論文 参考訳(メタデータ) (2025-09-12T09:38:17Z) - HOI-Diff: Text-Driven Synthesis of 3D Human-Object Interactions using Diffusion Models [42.62823339416957]
テキストのプロンプトによって駆動される現実的な3次元物体間相互作用(HOI)を創出する問題に対処する。
まず、入力テキストに条件付けされた人間と物体の両方の動きを生成するための二重分岐拡散モデル(HOI-DM)を開発する。
また,人間と物体の接触領域を予測するためのアベイランス予測拡散モデル(APDM)を開発した。
論文 参考訳(メタデータ) (2023-12-11T17:41:17Z) - RobustFusion: Robust Volumetric Performance Reconstruction under
Human-object Interactions from Monocular RGBD Stream [27.600873320989276]
現実のシナリオでは、さまざまなオブジェクトと複雑な相互作用を持つ人間のパフォーマンスの高品質の4D再構築が不可欠です。
近年の進歩は、信頼性の高い性能回復には至っていない。
人間と物体のインタラクションシナリオのための堅牢なボリュームパフォーマンス再構築システムであるRobustFusionを提案する。
論文 参考訳(メタデータ) (2021-04-30T08:41:45Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。