論文の概要: Towards Adaptable Humanoid Control via Adaptive Motion Tracking
- arxiv url: http://arxiv.org/abs/2510.14454v1
- Date: Thu, 16 Oct 2025 08:54:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.786639
- Title: Towards Adaptable Humanoid Control via Adaptive Motion Tracking
- Title(参考訳): アダプティブモーショントラッキングによる適応型ヒューマノイド制御に向けて
- Authors: Tao Huang, Huayi Wang, Junli Ren, Kangning Yin, Zirui Wang, Xiao Chen, Feiyu Jia, Wentao Zhang, Junfeng Long, Jingbo Wang, Jiangmiao Pang,
- Abstract要約: 単一の参照動作から適応的な制御を可能にする新しいモーショントラッキングであるAdaMimicを紹介する。
シミュレーションと実世界のUnitree G1ヒューマノイドロボットにおけるアプローチにおけるこれらの重要な改善の有効性を検証する。
- 参考スコア(独自算出の注目度): 40.862885805966464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humanoid robots are envisioned to adapt demonstrated motions to diverse real-world conditions while accurately preserving motion patterns. Existing motion prior approaches enable well adaptability with a few motions but often sacrifice imitation accuracy, whereas motion-tracking methods achieve accurate imitation yet require many training motions and a test-time target motion to adapt. To combine their strengths, we introduce AdaMimic, a novel motion tracking algorithm that enables adaptable humanoid control from a single reference motion. To reduce data dependence while ensuring adaptability, our method first creates an augmented dataset by sparsifying the single reference motion into keyframes and applying light editing with minimal physical assumptions. A policy is then initialized by tracking these sparse keyframes to generate dense intermediate motions, and adapters are subsequently trained to adjust tracking speed and refine low-level actions based on the adjustment, enabling flexible time warping that further improves imitation accuracy and adaptability. We validate these significant improvements in our approach in both simulation and the real-world Unitree G1 humanoid robot in multiple tasks across a wide range of adaptation conditions. Videos and code are available at https://taohuang13.github.io/adamimic.github.io/.
- Abstract(参考訳): ヒューマノイドロボットは、動作パターンを正確に保存しながら、実世界の様々な状況に実演動作を適応させることが想定されている。
既存の動作先行アプローチは、いくつかの動作で順応性が高いが、しばしば模倣の精度を犠牲にする一方、モーショントラッキング手法は正確な模倣を実現するが、多くのトレーニング動作とテスト時間目標運動を適応させる必要がある。
AdaMimicは、単一の参照動作から適応可能なヒューマノイド制御を可能にする新しいモーショントラッキングアルゴリズムである。
適応性を確保しつつデータ依存を低減するため,本手法はまず,単一の参照動作をキーフレームに分散し,最小限の物理仮定で光編集を行うことにより,拡張データセットを作成する。
次に、これらの疎いキーフレームを追跡して中間動作を密集させ、その後アダプタを訓練して、調整に基づいて追跡速度を調整し、低レベル動作を洗練させ、模倣精度と適応性をさらに向上させるフレキシブル・タイム・ワープを可能にする。
シミュレーションと実世界のUnitree G1ヒューマノイドロボットにおけるアプローチにおけるこれらの重要な改善を,多種多様な適応条件で検証した。
ビデオとコードはhttps://taohuang13.github.io/adamimic.github.io/で公開されている。
関連論文リスト
- ResMimic: From General Motion Tracking to Humanoid Whole-body Loco-Manipulation via Residual Learning [59.64325421657381]
ヒューマノイド全体のロコ操作は、日々のサービスや倉庫のタスクにトランスフォーメーション機能を約束する。
ResMimicは、人間の動作データから正確に表現力のあるヒューマノイド制御のための2段階の残差学習フレームワークである。
結果は、強いベースラインよりもタスク成功、トレーニング効率、堅牢性が大幅に向上したことを示している。
論文 参考訳(メタデータ) (2025-10-06T17:47:02Z) - KungfuBot: Physics-Based Humanoid Whole-Body Control for Learning Highly-Dynamic Skills [50.34487144149439]
そこで本研究では,Kungfuやダンスなどの人体動作を高度に制御することを目的とした,物理学に基づくヒューマノイド制御フレームワークを提案する。
動作処理では,運動の抽出,フィルタリング,修正,再ターゲティングを行うパイプラインを設計し,物理的制約の遵守を確実にする。
動作模倣では、二段階最適化問題を定式化し、追従精度の許容度を動的に調整する。
実験では,高ダイナミックな動作のセットを模倣するために全身制御ポリシーを訓練する。
論文 参考訳(メタデータ) (2025-06-15T13:58:53Z) - A Plug-and-Play Physical Motion Restoration Approach for In-the-Wild High-Difficulty Motions [56.709280823844374]
動作コンテキストとビデオマスクを利用して、欠陥のある動作を修復するマスクベースの動作補正モジュール(MCM)を導入する。
また,運動模倣のための事前訓練および適応手法を用いた物理ベースの運動伝達モジュール (PTM) を提案する。
本手法は,高速な移動を含む映像モーションキャプチャ結果を物理的に洗練するためのプラグイン・アンド・プレイモジュールとして設計されている。
論文 参考訳(メタデータ) (2024-12-23T08:26:00Z) - HumMUSS: Human Motion Understanding using State Space Models [6.821961232645209]
本稿では,最近の状態空間モデルの発展にともなう,人間の動作理解構築のための新しいアテンションフリーモデルを提案する。
私たちのモデルはオフラインとリアルタイムの両方のアプリケーションをサポートします。
リアルタイムの逐次予測では、このモデルはトランスフォーマーベースのアプローチよりもメモリ効率が高く、数倍高速である。
論文 参考訳(メタデータ) (2024-04-16T19:59:21Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - MotionAug: Augmentation with Physical Correction for Human Motion
Prediction [19.240717471864723]
本稿では,動き合成を取り入れた動きデータ拡張手法を提案する。
提案手法は,リカレントニューラルネットワークとグラフ畳み込みネットワークを併用した人間の動き予測モデルにおいて,従来の雑音に基づく動き増進手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-03-17T06:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。