論文の概要: Implicit Kinodynamic Motion Retargeting for Human-to-humanoid Imitation Learning
- arxiv url: http://arxiv.org/abs/2509.15443v1
- Date: Thu, 18 Sep 2025 21:34:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:10.912589
- Title: Implicit Kinodynamic Motion Retargeting for Human-to-humanoid Imitation Learning
- Title(参考訳): 人-人-人-人-模倣学習のためのインシシシト・キノダイナミック・モーション・リターゲティング
- Authors: Xingyu Chen, Hanyu Wu, Sikai Wu, Mingliang Zhou, Diyun Xiang, Haodong Zhang,
- Abstract要約: Implicit Kinodynamic Motion Retargeting (IKMR)は、キネマティクスとダイナミックスの両方を考慮した、効率的でスケーラブルなフレームワークである。
IKMRは、モーション領域マッピングを学ぶために、モーショントポロジ表現とデュアルエンコーダデコーダアーキテクチャを事前訓練する。
実物大のヒューマノイドロボットでシミュレータと実物ロボットの両方で実験を行う。
- 参考スコア(独自算出の注目度): 35.8296790596745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-to-humanoid imitation learning aims to learn a humanoid whole-body controller from human motion. Motion retargeting is a crucial step in enabling robots to acquire reference trajectories when exploring locomotion skills. However, current methods focus on motion retargeting frame by frame, which lacks scalability. Could we directly convert large-scale human motion into robot-executable motion through a more efficient approach? To address this issue, we propose Implicit Kinodynamic Motion Retargeting (IKMR), a novel efficient and scalable retargeting framework that considers both kinematics and dynamics. In kinematics, IKMR pretrains motion topology feature representation and a dual encoder-decoder architecture to learn a motion domain mapping. In dynamics, IKMR integrates imitation learning with the motion retargeting network to refine motion into physically feasible trajectories. After fine-tuning using the tracking results, IKMR can achieve large-scale physically feasible motion retargeting in real time, and a whole-body controller could be directly trained and deployed for tracking its retargeted trajectories. We conduct our experiments both in the simulator and the real robot on a full-size humanoid robot. Extensive experiments and evaluation results verify the effectiveness of our proposed framework.
- Abstract(参考訳): 人間から人間への模倣学習は、人間の動きからヒューマノイド全体のコントローラーを学習することを目的としている。
モーションリターゲティングは、ロボットがロコモーションスキルを探索する際に基準軌跡を取得できるようにするための重要なステップである。
しかし、現在の手法では、拡張性に欠けるフレーム単位のモーションリターゲティングに重点を置いている。
より効率的なアプローチで、大規模な人間の動きを直接ロボット実行可能な動きに変換することは可能か?
この問題に対処するために,運動力学と力学の両方を考慮した,新しい効率的かつスケーラブルなリターゲットフレームワークであるIKMRを提案する。
キネマティクスでは、IKMRはモーション・トポロジーの特徴表現とデュアルエンコーダ・デコーダ・アーキテクチャを事前訓練し、モーション・ドメイン・マッピングを学習する。
力学において、IKMRは模倣学習と運動再ターゲティングネットワークを統合し、運動を物理的に実現可能な軌道へと洗練する。
追跡結果を用いて微調整を行った結果、IKMRは物理的に実現可能な大規模な運動再ターゲティングをリアルタイムで達成することができ、また、全体制御器を直接訓練し、再ターゲティングされた軌道を追跡するために展開することができる。
実物大のヒューマノイドロボットでシミュレータと実物ロボットの両方で実験を行う。
実験結果と評価結果により,提案手法の有効性が検証された。
関連論文リスト
- KungfuBot: Physics-Based Humanoid Whole-Body Control for Learning Highly-Dynamic Skills [50.34487144149439]
そこで本研究では,Kungfuやダンスなどの人体動作を高度に制御することを目的とした,物理学に基づくヒューマノイド制御フレームワークを提案する。
動作処理では,運動の抽出,フィルタリング,修正,再ターゲティングを行うパイプラインを設計し,物理的制約の遵守を確実にする。
動作模倣では、二段階最適化問題を定式化し、追従精度の許容度を動的に調整する。
実験では,高ダイナミックな動作のセットを模倣するために全身制御ポリシーを訓練する。
論文 参考訳(メタデータ) (2025-06-15T13:58:53Z) - Spatial-Temporal Graph Diffusion Policy with Kinematic Modeling for Bimanual Robotic Manipulation [88.83749146867665]
既存のアプローチは、遠く離れた次のベストなエンドエフェクタのポーズを予測するポリシーを学びます。
すると、運動に対する対応する関節回転角を逆運動学を用いて計算する。
本稿では,Kinematics 拡張空間テンポアル gRaph diffuser を提案する。
論文 参考訳(メタデータ) (2025-03-13T17:48:35Z) - I-CTRL: Imitation to Control Humanoid Robots Through Constrained Reinforcement Learning [8.97654258232601]
有界残留強化学習(I-CTRL)によるヒューマノイドロボットの制御フレームワークの開発
I-CTRLは5つのロボットにまたがるシンプルでユニークな報酬で、動きの模倣に優れています。
本フレームワークでは,大規模動作データセットを管理するための自動優先度スケジューラを導入している。
論文 参考訳(メタデータ) (2024-05-14T16:12:27Z) - Learning Human-to-Humanoid Real-Time Whole-Body Teleoperation [34.65637397405485]
本稿では,Human to Humanoid(H2O)について紹介する。H2Oは,RGBカメラのみを搭載したヒューマノイドロボットのリアルタイム遠隔操作を実現するフレームワークである。
我々は、これらの洗練された動きを用いてシミュレーションで頑健なリアルタイムヒューマノイド運動模倣機を訓練し、実ヒューマノイドロボットにゼロショットで転送する。
私たちの知る限りでは、学習に基づくリアルタイムな人型ロボット遠隔操作を実現する最初のデモとなる。
論文 参考訳(メタデータ) (2024-03-07T12:10:41Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Human-Robot Skill Transfer with Enhanced Compliance via Dynamic Movement
Primitives [1.7901837062462316]
本研究では,動的運動プリミティブ(Dynamic Movement Primitives)フレームワークにおいて,人間の実演から動的特徴を抽出し,パラメータを自動チューニングする体系的手法を提案する。
本手法は,LfDとRLの両方に追従するロボット軌道を再現するために,人間の動的特徴を抽出するための実際のロボット装置に実装した。
論文 参考訳(メタデータ) (2023-04-12T08:48:28Z) - Human MotionFormer: Transferring Human Motions with Vision Transformers [73.48118882676276]
人間の動き伝達は、運動合成のためにターゲットの動的人物からソースの静的人物に動きを伝達することを目的としている。
本稿では,世界的および地域的認識を活用して,大規模かつ微妙な動きマッチングを捉える階層型ViTフレームワークであるHuman MotionFormerを提案する。
我々のHuman MotionFormerは、定性的かつ定量的に新しい最先端のパフォーマンスをセットしている。
論文 参考訳(メタデータ) (2023-02-22T11:42:44Z) - Skeleton2Humanoid: Animating Simulated Characters for
Physically-plausible Motion In-betweening [59.88594294676711]
現代の深層学習に基づく運動合成アプローチは、合成された運動の物理的妥当性をほとんど考慮していない。
テスト時に物理指向の動作補正を行うシステムSkeleton2Humanoid'を提案する。
挑戦的なLaFAN1データセットの実験は、物理的妥当性と精度の両方の観点から、我々のシステムが先行手法を著しく上回っていることを示している。
論文 参考訳(メタデータ) (2022-10-09T16:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。