論文の概要: KungfuBot2: Learning Versatile Motion Skills for Humanoid Whole-Body Control
- arxiv url: http://arxiv.org/abs/2509.16638v1
- Date: Sat, 20 Sep 2025 11:31:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.900467
- Title: KungfuBot2: Learning Versatile Motion Skills for Humanoid Whole-Body Control
- Title(参考訳): KungfuBot2:ヒューマノイド全体制御のためのVersatile Motionスキルの学習
- Authors: Jinrui Han, Weiji Xie, Jiakun Zheng, Jiyuan Shi, Weinan Zhang, Ting Xiao, Chenjia Bai,
- Abstract要約: ヒューマノイドロボットが単一ポリシーで多様な動的動作を学習できる統一された全身制御系VMSを提案する。
我々のフレームワークは、局所的な動きの忠実度とグローバルな軌道の整合性のバランスをとるハイブリッドな追跡目標を統合している。
シミュレーションと実世界の実験の両方においてVMSの特殊化を広範囲に検証し、ダイナミックスキルの正確な模倣、分長シーケンスでの安定した性能、そして目に見えない動作に対する強力な一般化を実証した。
- 参考スコア(独自算出の注目度): 30.738592041595933
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Learning versatile whole-body skills by tracking various human motions is a fundamental step toward general-purpose humanoid robots. This task is particularly challenging because a single policy must master a broad repertoire of motion skills while ensuring stability over long-horizon sequences. To this end, we present VMS, a unified whole-body controller that enables humanoid robots to learn diverse and dynamic behaviors within a single policy. Our framework integrates a hybrid tracking objective that balances local motion fidelity with global trajectory consistency, and an Orthogonal Mixture-of-Experts (OMoE) architecture that encourages skill specialization while enhancing generalization across motions. A segment-level tracking reward is further introduced to relax rigid step-wise matching, enhancing robustness when handling global displacements and transient inaccuracies. We validate VMS extensively in both simulation and real-world experiments, demonstrating accurate imitation of dynamic skills, stable performance over minute-long sequences, and strong generalization to unseen motions. These results highlight the potential of VMS as a scalable foundation for versatile humanoid whole-body control. The project page is available at https://kungfubot2-humanoid.github.io.
- Abstract(参考訳): 多様な人間の動きを追跡することによって、多目的な全身スキルを学習することは、汎用的なヒューマノイドロボットに向けた基本的なステップである。
この課題は、長い水平シーケンスの安定性を確保しながら、単一のポリシーが幅広い動きスキルのレパートリーを習得する必要があるため、特に困難である。
そこで本研究では,ヒューマノイドロボットが単一ポリシー内で多様な動的動作を学習することを可能にする,統一された全身制御システムVMSを提案する。
我々のフレームワークは、局所的な動きの忠実度とグローバルな軌跡の整合性のバランスをとるハイブリッドトラッキング目標と、動きの一般化を高めながらスキルの専門化を促進するOrthogonal Mixture-of-Experts(OMoE)アーキテクチャを統合する。
さらにセグメントレベルの追従報酬を導入し、厳密なステップワイドマッチングを緩和し、大域的な変位や過渡的不正確な処理の堅牢性を高める。
シミュレーションと実世界の実験の両方においてVMSを広範囲に検証し、ダイナミックスキルの正確な模倣、分長シーケンスでの安定した性能、そして目に見えない動きへの強い一般化を実証した。
これらの結果は、多目的なヒューマノイド全体制御のためのスケーラブルな基盤としてのVMSの可能性を強調している。
プロジェクトページはhttps://kungfubot2-humanoid.github.ioで公開されている。
関連論文リスト
- KungfuBot: Physics-Based Humanoid Whole-Body Control for Learning Highly-Dynamic Skills [50.34487144149439]
そこで本研究では,Kungfuやダンスなどの人体動作を高度に制御することを目的とした,物理学に基づくヒューマノイド制御フレームワークを提案する。
動作処理では,運動の抽出,フィルタリング,修正,再ターゲティングを行うパイプラインを設計し,物理的制約の遵守を確実にする。
動作模倣では、二段階最適化問題を定式化し、追従精度の許容度を動的に調整する。
実験では,高ダイナミックな動作のセットを模倣するために全身制御ポリシーを訓練する。
論文 参考訳(メタデータ) (2025-06-15T13:58:53Z) - Learning Humanoid Standing-up Control across Diverse Postures [27.79222176982376]
立ち上がり制御はヒューマノイドロボットにとって不可欠であり、現在の移動と移動操作システムに統合される可能性がある。
本稿では,立ち上がり制御をゼロから学習する強化学習フレームワークであるHoST(Humanoid Standing-up Control)を提案する。
実験結果から, 各種実験室および屋外環境におけるスムーズ, 安定, 頑健な立位運動が得られた。
論文 参考訳(メタデータ) (2025-02-12T13:10:09Z) - ExBody2: Advanced Expressive Humanoid Whole-Body Control [16.69009772546575]
人間のモーションキャプチャーとシミュレーションデータの両方に基づいてトレーニングされた全身トラッキングコントローラの製作法を提案する。
我々は,ロボットのキネマティクスに適合する中間データを生成するために,教師の方針を利用する。
少量のデータによる微調整により追跡性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-12-17T18:59:51Z) - Learning Multi-Modal Whole-Body Control for Real-World Humanoid Robots [13.229028132036321]
Masked Humanoid Controller (MHC)は、立位、歩行、体の一部の動きの模倣をサポートする。
MHCは、立ち上がり、歩行、最適化された基準軌跡、再ターゲットされたビデオクリップ、人間のモーションキャプチャーデータにまたがる行動のライブラリから、部分的にマスクされた動きを模倣する。
実世界のDigi V3ヒューマノイドロボット上でのシミュレート・トゥ・リアルトランスファーを実演する。
論文 参考訳(メタデータ) (2024-07-30T09:10:24Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - UniCon: Universal Neural Controller For Physics-based Character Motion [70.45421551688332]
大規模動作データセットから学習することで,異なるスタイルで数千の動作を習得する物理ベースのユニバーサルニューラルコントローラ(UniCon)を提案する。
UniConは、キーボード駆動制御をサポートし、ロコモーションとアクロバティックスキルの大きなプールから引き出されたモーションシーケンスを作成し、ビデオで撮影した人を物理ベースの仮想アバターにテレポートする。
論文 参考訳(メタデータ) (2020-11-30T18:51:16Z) - Residual Force Control for Agile Human Behavior Imitation and Extended
Motion Synthesis [32.22704734791378]
強化学習は、モーションキャプチャーデータからヒューマノイド制御ポリシーを学習することで、現実的な人間の行動に大きな可能性を示してきた。
バレエダンスのような洗練された人間のスキルを再現することや、複雑な移行を伴う長期的な人間の振る舞いを安定して模倣することは、依然として非常に困難である。
動作空間に外部残留力を加えることでヒューマノイド制御ポリシーを強化する新しいアプローチである残留力制御(RFC)を提案する。
論文 参考訳(メタデータ) (2020-06-12T17:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。