論文の概要: ZEST: Zero-shot Embodied Skill Transfer for Athletic Robot Control
- arxiv url: http://arxiv.org/abs/2602.00401v1
- Date: Fri, 30 Jan 2026 23:35:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.16275
- Title: ZEST: Zero-shot Embodied Skill Transfer for Athletic Robot Control
- Title(参考訳): ZEST:アスレチックロボット制御のためのゼロショット体操スキルトランスファー
- Authors: Jean Pierre Sleiman, He Li, Alphonsus Adu-Bredu, Robin Deits, Arun Kumar, Kevin Bergamin, Mohak Bhardwaj, Scott Biddlestone, Nicola Burger, Matthew A. Estrada, Francesco Iacobelli, Twan Koolen, Alexander Lambert, Erica Lin, M. Eva Mungai, Zach Nobles, Shane Rozen-Levy, Yuyao Shi, Jiashun Wang, Jakob Welner, Fangzhou Yu, Mike Zhang, Alfred Rizzi, Jessica Hodgins, Sylvain Bertrand, Yeuhi Abe, Scott Kuindersma, Farbod Farshidian,
- Abstract要約: 本稿では,多種多様な情報源からの強化学習を通じて政策を訓練する動きの合理化フレームワークであるZESTを紹介する。
ZESTは、連絡先ラベル、参照または観察ウィンドウ、状態推定器、広範囲な報酬形成を避けながら、行動やプラットフォームをまたいで一般化する。
ボストン・ダイナミクスのアトラス・ヒューマノイドで、ZESTはモーションキャプチャーからダイナミックでマルチコンタクトのスキル(例えば、陸軍のクロール、ブレイクダンス)を学ぶ。
- 参考スコア(独自算出の注目度): 37.4764082674475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Achieving robust, human-like whole-body control on humanoid robots for agile, contact-rich behaviors remains a central challenge, demanding heavy per-skill engineering and a brittle process of tuning controllers. We introduce ZEST (Zero-shot Embodied Skill Transfer), a streamlined motion-imitation framework that trains policies via reinforcement learning from diverse sources -- high-fidelity motion capture, noisy monocular video, and non-physics-constrained animation -- and deploys them to hardware zero-shot. ZEST generalizes across behaviors and platforms while avoiding contact labels, reference or observation windows, state estimators, and extensive reward shaping. Its training pipeline combines adaptive sampling, which focuses training on difficult motion segments, and an automatic curriculum using a model-based assistive wrench, together enabling dynamic, long-horizon maneuvers. We further provide a procedure for selecting joint-level gains from approximate analytical armature values for closed-chain actuators, along with a refined model of actuators. Trained entirely in simulation with moderate domain randomization, ZEST demonstrates remarkable generality. On Boston Dynamics' Atlas humanoid, ZEST learns dynamic, multi-contact skills (e.g., army crawl, breakdancing) from motion capture. It transfers expressive dance and scene-interaction skills, such as box-climbing, directly from videos to Atlas and the Unitree G1. Furthermore, it extends across morphologies to the Spot quadruped, enabling acrobatics, such as a continuous backflip, through animation. Together, these results demonstrate robust zero-shot deployment across heterogeneous data sources and embodiments, establishing ZEST as a scalable interface between biological movements and their robotic counterparts.
- Abstract(参考訳): アジャイルのためのヒューマノイドロボットに対する頑丈で人間らしく全身的なコントロールを達成し、コンタクトリッチな振る舞いは依然として中心的な課題であり、高いスキルのエンジニアリングとコントローラーのチューニングの脆弱なプロセスを必要としている。
ZEST(Zero-shot Embodied Skill Transfer)は、さまざまなソースからの強化学習(高忠実なモーションキャプチャ、ノイズの多いモノクロビデオ、非物理制約のアニメーション)を通じてポリシーをトレーニングし、それらをハードウェアゼロショットにデプロイする、合理化されたモーションアニメーションフレームワークである。
ZESTは、連絡先ラベル、参照または観察ウィンドウ、状態推定器、広範囲な報酬形成を避けながら、行動やプラットフォームをまたいで一般化する。
トレーニングパイプラインには、難しい動作セグメントをトレーニングするアダプティブサンプリングと、モデルベースの補助レンチを使用した自動カリキュラムを組み合わせることで、ダイナミックで長期の操作を可能にする。
さらに、クローズチェーンアクチュエータの近似解析機動値から関節レベルゲインを選択する方法と、アクチュエータの洗練されたモデルを提案する。
ドメインランダム化を適度に行うシミュレーションで完全に訓練されたZESTは、顕著な一般性を示す。
Boston DynamicsのAtlasヒューマノイドで、ZESTはモーションキャプチャーからダイナミックでマルチコンタクトなスキル(例えば、軍クロー、ブレイクダンス)を学ぶ。
ボックスクライミングなどの表現力のあるダンスとシーンインタラクションのスキルをビデオから直接AtlasとUnitree G1に転送する。
さらに、モルフォロジーを越えて、アニメーションを通じて連続したバックフリップのようなアクロバティックスを可能にするスポット四重奏まで拡張する。
これらの結果は、不均一なデータソースとエボディメントにまたがる堅牢なゼロショット展開を示し、ZESTを生体運動とロボットとのスケーラブルなインターフェースとして確立した。
関連論文リスト
- UniAct: Unified Motion Generation and Action Streaming for Humanoid Robots [27.794309591475326]
ヒューマノイドロボティクスにおける長年の目標は、人間レベルの柔軟性を持つ多様なマルチモーダル命令に従うことができる汎用エージェントの実現である。
ここでは、微調整MLLMと因果ストリーミングパイプラインを統合した2段階のフレームワークであるUniActを用いて、500ms以下のレイテンシで、ヒューマノイドロボットがマルチモーダル命令を実行できることを示す。
提案手法は, ゼロショット追尾における不完全な参照動作の成功率を19%向上させる。
論文 参考訳(メタデータ) (2025-12-30T16:20:13Z) - FreeAction: Training-Free Techniques for Enhanced Fidelity of Trajectory-to-Video Generation [50.39748673817223]
本稿では,ロボットビデオ生成における明示的な動作パラメータを完全に活用する2つのトレーニング不要な推論時間手法を提案する。
第一に、アクションスケールの分類器フリーガイダンスは、動作の大きさに比例して誘導強度を動的に調整し、運動強度に対する制御性を高める。
第二に、アクションスケールノイズトランケーションは、初期サンプルノイズの分布を調整し、所望の運動力学とよりよく一致させる。
論文 参考訳(メタデータ) (2025-09-29T03:30:40Z) - RobotDancing: Residual-Action Reinforcement Learning Enables Robust Long-Horizon Humanoid Motion Tracking [50.200035833530876]
RobotDancingはシンプルでスケーラブルなフレームワークで、残留する関節の目標を予測して、ダイナミックスの不一致を明示的に修正する。
複数分間の高エネルギー動作(ジャンプ、スピン、カートホイール)をトラッキングし、高いモーショントラッキング品質のハードウェアにゼロショットをデプロイする。
論文 参考訳(メタデータ) (2025-09-25T03:30:34Z) - KungfuBot2: Learning Versatile Motion Skills for Humanoid Whole-Body Control [30.738592041595933]
ヒューマノイドロボットが単一ポリシーで多様な動的動作を学習できる統一された全身制御系VMSを提案する。
我々のフレームワークは、局所的な動きの忠実度とグローバルな軌道の整合性のバランスをとるハイブリッドな追跡目標を統合している。
シミュレーションと実世界の実験の両方においてVMSの特殊化を広範囲に検証し、ダイナミックスキルの正確な模倣、分長シーケンスでの安定した性能、そして目に見えない動作に対する強力な一般化を実証した。
論文 参考訳(メタデータ) (2025-09-20T11:31:14Z) - Physical Autoregressive Model for Robotic Manipulation without Action Pretraining [65.8971623698511]
我々は、自己回帰ビデオ生成モデルを構築し、物理自己回帰モデル(PAR)を提案する。
PARは、アクション事前トレーニングを必要とせず、物理力学を理解するために、ビデオ事前トレーニングに埋め込まれた世界の知識を活用する。
ManiSkillベンチマークの実験は、PARがPushCubeタスクで100%の成功率を達成したことを示している。
論文 参考訳(メタデータ) (2025-08-13T13:54:51Z) - Learning Humanoid Standing-up Control across Diverse Postures [27.79222176982376]
立ち上がり制御はヒューマノイドロボットにとって不可欠であり、現在の移動と移動操作システムに統合される可能性がある。
本稿では,立ち上がり制御をゼロから学習する強化学習フレームワークであるHoST(Humanoid Standing-up Control)を提案する。
実験結果から, 各種実験室および屋外環境におけるスムーズ, 安定, 頑健な立位運動が得られた。
論文 参考訳(メタデータ) (2025-02-12T13:10:09Z) - UniCon: Universal Neural Controller For Physics-based Character Motion [70.45421551688332]
大規模動作データセットから学習することで,異なるスタイルで数千の動作を習得する物理ベースのユニバーサルニューラルコントローラ(UniCon)を提案する。
UniConは、キーボード駆動制御をサポートし、ロコモーションとアクロバティックスキルの大きなプールから引き出されたモーションシーケンスを作成し、ビデオで撮影した人を物理ベースの仮想アバターにテレポートする。
論文 参考訳(メタデータ) (2020-11-30T18:51:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。