論文の概要: OmniTrack: General Motion Tracking via Physics-Consistent Reference
- arxiv url: http://arxiv.org/abs/2602.23832v1
- Date: Fri, 27 Feb 2026 09:12:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.759916
- Title: OmniTrack: General Motion Tracking via Physics-Consistent Reference
- Title(参考訳): OmniTrack: 物理学的な参照による一般的なモーショントラッキング
- Authors: Yuhan Li, Peiyuan Zhi, Yunshen Wang, Tengyu Liu, Sixu Yan, Wenyu Liu, Xinggang Wang, Baoxiong Jia, Siyuan Huang,
- Abstract要約: OmniTrackは、一般的なモーショントラッキングから物理的実現可能性を明確に分離する一般的なトラッキングフレームワークである。
実験により、OmniTrackは追跡精度を向上し、目に見えない動きに対して強力な一般化を示すことが示された。
実世界のテストでは、OmniTrackは、フリップやカートホイールのような複雑なアクロバティックな動きを含む、1時間の長さ、一貫性、安定したトラッキングを実現している。
- 参考スコア(独自算出の注目度): 54.256312586493415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning motion tracking from rich human motion data is a foundational task for achieving general control in humanoid robots, enabling them to perform diverse behaviors. However, discrepancies in morphology and dynamics between humans and robots, combined with data noise, introduce physically infeasible artifacts in reference motions, such as floating and penetration. During both training and execution, these artifacts create a conflict between following inaccurate reference motions and maintaining the robot's stability, hindering the development of a generalizable motion tracking policy. To address these challenges, we introduce OmniTrack, a general tracking framework that explicitly decouples physical feasibility from general motion tracking. In the first stage, a privileged generalist policy generates physically plausible motions that strictly adhere to the robot's dynamics via trajectory rollout in simulation. In the second stage, the general control policy is trained to track these physically feasible motions, ensuring stable and coherent control transfer to the real robot. Experiments show that OmniTrack improves tracking accuracy and demonstrates strong generalization to unseen motions. In real-world tests, OmniTrack achieves hour-long, consistent, and stable tracking, including complex acrobatic motions such as flips and cartwheels. Additionally, we show that OmniTrack supports human-style stable and dynamic online teleoperation, highlighting its robustness and adaptability to varying user inputs.
- Abstract(参考訳): リッチな人の動きデータからモーショントラッキングを学習することは、ヒューマノイドロボットの汎用的な制御を実現するための基礎的なタスクであり、多様な動作を可能にする。
しかしながら、人間とロボット間の形態学と力学の相違は、データノイズと相まって、浮遊や浸透のような参照運動において物理的に実現不可能な人工物を導入している。
トレーニングと実行の両方の間、これらのアーティファクトは、次の不正確な参照動作とロボットの安定性の維持の間に矛盾を生じさせ、一般化可能なモーショントラッキングポリシーの開発を妨げる。
これらの課題に対処するために,一般的なトラッキングフレームワークであるOmniTrackを紹介した。
第一段階では、特権的なジェネリストポリシーは、シミュレーションにおいて軌道のロールアウトを通じてロボットのダイナミクスに厳密に固執する物理的にもっともらしい動作を生成する。
第2段階では、一般的な制御ポリシーがトレーニングされ、これらの物理的に実現可能な動作を追跡し、実際のロボットへの安定かつ一貫性のある制御伝達を保証する。
実験により、OmniTrackは追跡精度を向上し、目に見えない動きに対して強力な一般化を示すことが示された。
実世界のテストでは、OmniTrackは、フリップやカートホイールのような複雑なアクロバティックな動きを含む、1時間の長さ、一貫性、安定したトラッキングを実現している。
さらに、OmniTrackは、人間のスタイルの安定した動的オンライン遠隔操作をサポートし、その堅牢性と多様なユーザ入力への適応性を強調している。
関連論文リスト
- CLOT: Closed-Loop Global Motion Tracking for Whole-Body Humanoid Teleoperation [54.7399209456857]
閉ループグローバルモーショントラッキングを実現する,リアルタイムな人型遠隔操作システムCLOTを提案する。
CLOTはオペレータとロボットのポーズをクローズドループで同期させ、長時間のタイムホライズン上でドリフトフリーな人間-人間-ヒューマノイドの模倣を可能にする。
本研究では,報奨評価から観測軌道を分離し,スムーズで安定した大域的補正を可能にするデータ駆動ランダム化手法を提案する。
論文 参考訳(メタデータ) (2026-02-13T12:03:13Z) - TextOp: Real-time Interactive Text-Driven Humanoid Robot Motion Generation and Control [62.93681680333618]
TextOpはリアルタイムテキスト駆動型ヒューマノイドモーション生成および制御フレームワークである。
ストリーミング言語コマンドと実行中のオンザフライ命令修正をサポートする。
対話型モーション生成を堅牢な全身制御でブリッジすることで、TextOpは自由形式のインテント表現をアンロックする。
論文 参考訳(メタデータ) (2026-02-07T08:42:11Z) - KungfuBot2: Learning Versatile Motion Skills for Humanoid Whole-Body Control [30.738592041595933]
ヒューマノイドロボットが単一ポリシーで多様な動的動作を学習できる統一された全身制御系VMSを提案する。
我々のフレームワークは、局所的な動きの忠実度とグローバルな軌道の整合性のバランスをとるハイブリッドな追跡目標を統合している。
シミュレーションと実世界の実験の両方においてVMSの特殊化を広範囲に検証し、ダイナミックスキルの正確な模倣、分長シーケンスでの安定した性能、そして目に見えない動作に対する強力な一般化を実証した。
論文 参考訳(メタデータ) (2025-09-20T11:31:14Z) - KungfuBot: Physics-Based Humanoid Whole-Body Control for Learning Highly-Dynamic Skills [58.73043119128804]
そこで本研究では,Kungfuやダンスなどの人体動作を高度に制御することを目的とした,物理学に基づくヒューマノイド制御フレームワークを提案する。
動作処理では,運動の抽出,フィルタリング,修正,再ターゲティングを行うパイプラインを設計し,物理的制約の遵守を確実にする。
動作模倣では、二段階最適化問題を定式化し、追従精度の許容度を動的に調整する。
実験では,高ダイナミックな動作のセットを模倣するために全身制御ポリシーを訓練する。
論文 参考訳(メタデータ) (2025-06-15T13:58:53Z) - Learning Humanoid Standing-up Control across Diverse Postures [27.79222176982376]
立ち上がり制御はヒューマノイドロボットにとって不可欠であり、現在の移動と移動操作システムに統合される可能性がある。
本稿では,立ち上がり制御をゼロから学習する強化学習フレームワークであるHoST(Humanoid Standing-up Control)を提案する。
実験結果から, 各種実験室および屋外環境におけるスムーズ, 安定, 頑健な立位運動が得られた。
論文 参考訳(メタデータ) (2025-02-12T13:10:09Z) - ExBody2: Advanced Expressive Humanoid Whole-Body Control [16.69009772546575]
人間のモーションキャプチャーとシミュレーションデータの両方に基づいてトレーニングされた全身トラッキングコントローラの製作法を提案する。
我々は,ロボットのキネマティクスに適合する中間データを生成するために,教師の方針を利用する。
少量のデータによる微調整により追跡性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-12-17T18:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。