論文の概要: KungfuBot: Physics-Based Humanoid Whole-Body Control for Learning Highly-Dynamic Skills
- arxiv url: http://arxiv.org/abs/2506.12851v1
- Date: Sun, 15 Jun 2025 13:58:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.002228
- Title: KungfuBot: Physics-Based Humanoid Whole-Body Control for Learning Highly-Dynamic Skills
- Title(参考訳): KungfuBot:高ダイナミックスキル学習のための物理ベースのヒューマノイド全体制御
- Authors: Weiji Xie, Jinrui Han, Jiakun Zheng, Huanyu Li, Xinzhe Liu, Jiyuan Shi, Weinan Zhang, Chenjia Bai, Xuelong Li,
- Abstract要約: そこで本研究では,Kungfuやダンスなどの人体動作を高度に制御することを目的とした,物理学に基づくヒューマノイド制御フレームワークを提案する。
動作処理では,運動の抽出,フィルタリング,修正,再ターゲティングを行うパイプラインを設計し,物理的制約の遵守を確実にする。
動作模倣では、二段階最適化問題を定式化し、追従精度の許容度を動的に調整する。
実験では,高ダイナミックな動作のセットを模倣するために全身制御ポリシーを訓練する。
- 参考スコア(独自算出の注目度): 50.34487144149439
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Humanoid robots are promising to acquire various skills by imitating human behaviors. However, existing algorithms are only capable of tracking smooth, low-speed human motions, even with delicate reward and curriculum design. This paper presents a physics-based humanoid control framework, aiming to master highly-dynamic human behaviors such as Kungfu and dancing through multi-steps motion processing and adaptive motion tracking. For motion processing, we design a pipeline to extract, filter out, correct, and retarget motions, while ensuring compliance with physical constraints to the maximum extent. For motion imitation, we formulate a bi-level optimization problem to dynamically adjust the tracking accuracy tolerance based on the current tracking error, creating an adaptive curriculum mechanism. We further construct an asymmetric actor-critic framework for policy training. In experiments, we train whole-body control policies to imitate a set of highly-dynamic motions. Our method achieves significantly lower tracking errors than existing approaches and is successfully deployed on the Unitree G1 robot, demonstrating stable and expressive behaviors. The project page is https://kungfu-bot.github.io.
- Abstract(参考訳): ヒューマノイドロボットは、人間の行動を模倣することで様々なスキルを身につけることを約束している。
しかし、既存のアルゴリズムは、微妙な報酬やカリキュラム設計であっても、スムーズで低速な人間の動きを追跡できるだけである。
本稿では,多段動作処理と適応動作追跡を通じて,カンフーや舞踊といった高ダイナミックな人間の動作を習得することを目的とした物理に基づくヒューマノイド制御フレームワークを提案する。
動作処理のために,動作を抽出,フィルタリング,修正,再ターゲットするパイプラインを設計し,物理的制約の遵守を最大限に確保する。
動作模倣では,2段階の最適化問題を定式化し,現在の追従誤差に基づいて追従精度の許容度を動的に調整し,適応的なカリキュラム機構を作成する。
さらに、政策訓練のための非対称アクター批判フレームワークを構築した。
実験では,高ダイナミックな動作のセットを模倣するために全身制御ポリシーを訓練する。
提案手法は,既存の手法に比べてトラッキングエラーを著しく低減し,安定かつ表現的な動作を示すUnitree G1ロボット上でのデプロイに成功している。
プロジェクトページはhttps://kungfu-bot.github.io。
関連論文リスト
- Natural Humanoid Robot Locomotion with Generative Motion Prior [21.147249860051616]
本稿では,ヒューマノイドロボットの移動作業のきめ細かい監督を行う新しいジェネレーティブ・モーション・プライオリティ(GMP)を提案する。
我々は、条件付き変分自動エンコーダに基づいて、ロボットの将来の自然参照動作を予測するために、生成モデルをオフラインでトレーニングする。
政策訓練の間、生成運動は凍結したオンラインモーションジェネレータとして機能し、軌道レベルで正確に包括的な監視を提供する。
論文 参考訳(メタデータ) (2025-03-12T03:04:15Z) - Humanoid Whole-Body Locomotion on Narrow Terrain via Dynamic Balance and Reinforcement Learning [54.26816599309778]
動的バランスと強化学習(RL)に基づく新しい全身移動アルゴリズムを提案する。
具体的には,ZMP(Zero-Moment Point)駆動の報酬とタスク駆動の報酬を,全身のアクター批判的枠組みで拡張した尺度を活用することで,動的バランス機構を導入する。
フルサイズのUnitree H1-2ロボットによる実験により、非常に狭い地形でのバランスを維持するための手法の有効性が検証された。
論文 参考訳(メタデータ) (2025-02-24T14:53:45Z) - Learning Humanoid Standing-up Control across Diverse Postures [27.79222176982376]
立ち上がり制御はヒューマノイドロボットにとって不可欠であり、現在の移動と移動操作システムに統合される可能性がある。
本稿では,立ち上がり制御をゼロから学習する強化学習フレームワークであるHoST(Humanoid Standing-up Control)を提案する。
実験結果から, 各種実験室および屋外環境におけるスムーズ, 安定, 頑健な立位運動が得られた。
論文 参考訳(メタデータ) (2025-02-12T13:10:09Z) - ExBody2: Advanced Expressive Humanoid Whole-Body Control [16.69009772546575]
人間のモーションキャプチャーとシミュレーションデータの両方に基づいてトレーニングされた全身トラッキングコントローラの製作法を提案する。
我々は,ロボットのキネマティクスに適合する中間データを生成するために,教師の方針を利用する。
少量のデータによる微調整により追跡性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-12-17T18:59:51Z) - Aligning Human Motion Generation with Human Perceptions [51.831338643012444]
本研究では,大規模人間の知覚評価データセットであるMotionPerceptと,人間の動作批判モデルであるMotionCriticを導入することにより,ギャップを埋めるデータ駆動型アプローチを提案する。
我々の批評家モデルは、運動品質を評価するためのより正確な指標を提供しており、容易に運動生成パイプラインに統合することができる。
論文 参考訳(メタデータ) (2024-07-02T14:01:59Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Character Controllers Using Motion VAEs [9.806910643086045]
動きのvaesを用いて,人間の運動のデータ駆動生成モデルを学ぶ。
計画や制御アルゴリズムは、このアクション空間を使って望ましい動きを生成することができる。
論文 参考訳(メタデータ) (2021-03-26T05:51:41Z) - Residual Force Control for Agile Human Behavior Imitation and Extended
Motion Synthesis [32.22704734791378]
強化学習は、モーションキャプチャーデータからヒューマノイド制御ポリシーを学習することで、現実的な人間の行動に大きな可能性を示してきた。
バレエダンスのような洗練された人間のスキルを再現することや、複雑な移行を伴う長期的な人間の振る舞いを安定して模倣することは、依然として非常に困難である。
動作空間に外部残留力を加えることでヒューマノイド制御ポリシーを強化する新しいアプローチである残留力制御(RFC)を提案する。
論文 参考訳(メタデータ) (2020-06-12T17:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。