論文の概要: Learning to Assist: Physics-Grounded Human-Human Control via Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2603.11346v1
- Date: Wed, 11 Mar 2026 22:25:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.671925
- Title: Learning to Assist: Physics-Grounded Human-Human Control via Multi-Agent Reinforcement Learning
- Title(参考訳): 支援への学習:多エージェント強化学習による物理を取り巻くヒューマン・ヒューマン制御
- Authors: Yuto Shibata, Kashu Yamazaki, Lalit Jayanti, Yoshimitsu Aoki, Mariko Isogawa, Katerina Fragkiadaki,
- Abstract要約: 多エージェント強化学習問題として, 密接に相互作用し, 力量変化する人間の動作系列の模倣を定式化する。
AssistMimicは、確立されたベンチマーク上でのアシストインタラクション動作の追跡に成功できる最初の方法であることを示す。
- 参考スコア(独自算出の注目度): 29.898955971414154
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humanoid robotics has strong potential to transform daily service and caregiving applications. Although recent advances in general motion tracking within physics engines (GMT) have enabled virtual characters and humanoid robots to reproduce a broad range of human motions, these behaviors are primarily limited to contact-less social interactions or isolated movements. Assistive scenarios, by contrast, require continuous awareness of a human partner and rapid adaptation to their evolving posture and dynamics. In this paper, we formulate the imitation of closely interacting, force-exchanging human-human motion sequences as a multi-agent reinforcement learning problem. We jointly train partner-aware policies for both the supporter (assistant) agent and the recipient agent in a physics simulator to track assistive motion references. To make this problem tractable, we introduce a partner policies initialization scheme that transfers priors from single-human motion-tracking controllers, greatly improving exploration. We further propose dynamic reference retargeting and contact-promoting reward, which adapt the assistant's reference motion to the recipient's real-time pose and encourage physically meaningful support. We show that AssistMimic is the first method capable of successfully tracking assistive interaction motions on established benchmarks, demonstrating the benefits of a multi-agent RL formulation for physically grounded and socially aware humanoid control.
- Abstract(参考訳): ヒューマノイドロボットは、日々のサービスと介護の応用を変革する強い可能性を秘めている。
近年の物理エンジン(GMT)における一般的なモーショントラッキングの進歩により、仮想キャラクターやヒューマノイドロボットは幅広い人間の動きを再現できるようになったが、これらの動作は主に接触のない社会的相互作用や孤立した動きに限られている。
対照的に、補助的なシナリオは、人間のパートナーの継続的な認識と、進化する姿勢とダイナミクスへの迅速な適応を必要とします。
本稿では,多エージェント強化学習問題として,密接な相互作用と力による人間の動作系列の模倣を定式化する。
我々は,支援者(支援者)エージェントと受取人エージェントの両方に対して,補助動作参照を追跡するために協調的にパートナー認識ポリシーを訓練する。
この問題を解消するために、単一人のモーショントラッキングコントローラから先行情報を転送するパートナーポリシー初期化方式を導入し、探索を大幅に改善する。
さらに,リアルタイムのポーズにアシスタントの参照動作を適応させ,身体的に意味のある支援を促進する動的参照リターゲティングと接触促進報酬を提案する。
AssistMimicは、確立されたベンチマーク上での補助的インタラクション動作のトラッキングに成功し、物理的に座屈し、社会的に認識されたヒューマノイド制御のためのマルチエージェントRL定式化の利点を実証する最初の方法であることを示す。
関連論文リスト
- MeshMimic: Geometry-Aware Humanoid Motion Learning through 3D Scene Reconstruction [54.36564144414704]
MeshMimicは、3Dシーンの再構築とインテリジェンスを組み込んだ革新的なフレームワークで、ヒューマノイドロボットがビデオから直接「モーション・テライン」インタラクションを学習できるようにする。
現状の3次元視覚モデルを活用することで、我々のフレームワークは、人間の軌跡と基礎となる地形や物体の3次元幾何学の両方を正確にセグメント化し再構築する。
論文 参考訳(メタデータ) (2026-02-17T17:09:45Z) - ResMimic: From General Motion Tracking to Humanoid Whole-body Loco-Manipulation via Residual Learning [59.64325421657381]
ヒューマノイド全体のロコ操作は、日々のサービスや倉庫のタスクにトランスフォーメーション機能を約束する。
ResMimicは、人間の動作データから正確に表現力のあるヒューマノイド制御のための2段階の残差学習フレームワークである。
結果は、強いベースラインよりもタスク成功、トレーニング効率、堅牢性が大幅に向上したことを示している。
論文 参考訳(メタデータ) (2025-10-06T17:47:02Z) - Towards Immersive Human-X Interaction: A Real-Time Framework for Physically Plausible Motion Synthesis [51.95817740348585]
Human-Xは、様々な実体をまたいだ没入的で物理的に妥当なヒューマンインタラクションを可能にするために設計された、新しいフレームワークである。
本手法は, 自己回帰型反応拡散プランナを用いて, リアルタイムに反応と反応を同時予測する。
我々のフレームワークは、人間とロボットのインタラクションのための仮想現実インターフェースを含む、現実世界のアプリケーションで検証されている。
論文 参考訳(メタデータ) (2025-08-04T06:35:48Z) - I-CTRL: Imitation to Control Humanoid Robots Through Constrained Reinforcement Learning [8.97654258232601]
有界残留強化学習(I-CTRL)によるヒューマノイドロボットの制御フレームワークの開発
I-CTRLは5つのロボットにまたがるシンプルでユニークな報酬で、動きの模倣に優れています。
本フレームワークでは,大規模動作データセットを管理するための自動優先度スケジューラを導入している。
論文 参考訳(メタデータ) (2024-05-14T16:12:27Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Residual Force Control for Agile Human Behavior Imitation and Extended
Motion Synthesis [32.22704734791378]
強化学習は、モーションキャプチャーデータからヒューマノイド制御ポリシーを学習することで、現実的な人間の行動に大きな可能性を示してきた。
バレエダンスのような洗練された人間のスキルを再現することや、複雑な移行を伴う長期的な人間の振る舞いを安定して模倣することは、依然として非常に困難である。
動作空間に外部残留力を加えることでヒューマノイド制御ポリシーを強化する新しいアプローチである残留力制御(RFC)を提案する。
論文 参考訳(メタデータ) (2020-06-12T17:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。