論文の概要: TTT-Parkour: Rapid Test-Time Training for Perceptive Robot Parkour
- arxiv url: http://arxiv.org/abs/2602.02331v1
- Date: Mon, 02 Feb 2026 16:55:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.308414
- Title: TTT-Parkour: Rapid Test-Time Training for Perceptive Robot Parkour
- Title(参考訳): TTT-Parkour: ロボットパーキングの迅速なテストタイムトレーニング
- Authors: Shaoting Zhu, Baijun Ye, Jiaxuan Wang, Jiakang Chen, Ziwen Zhuang, Linzhan Mou, Runhan Huang, Hang Zhao,
- Abstract要約: 本稿では,ヒューマノイド・ロボット・パーキングのためのリアル・ツー・シミュレート・トゥ・リアル・フレームワークを提案する。
政策は、まず手続き的に生成された地形で事前訓練され、続いて現実世界の捕獲から再構築された高忠実度メッシュの素早い微調整が行われる。
TTT-Parkourは、くさび、ステック、ボックス、トラップエイド、狭いビームなど、複雑な障害物をマスターするために、ヒューマノイドロボットを活用できることを実証する。
- 参考スコア(独自算出の注目度): 29.110035197783162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Achieving highly dynamic humanoid parkour on unseen, complex terrains remains a challenge in robotics. Although general locomotion policies demonstrate capabilities across broad terrain distributions, they often struggle with arbitrary and highly challenging environments. To overcome this limitation, we propose a real-to-sim-to-real framework that leverages rapid test-time training (TTT) on novel terrains, significantly enhancing the robot's capability to traverse extremely difficult geometries. We adopt a two-stage end-to-end learning paradigm: a policy is first pre-trained on diverse procedurally generated terrains, followed by rapid fine-tuning on high-fidelity meshes reconstructed from real-world captures. Specifically, we develop a feed-forward, efficient, and high-fidelity geometry reconstruction pipeline using RGB-D inputs, ensuring both speed and quality during test-time training. We demonstrate that TTT-Parkour empowers humanoid robots to master complex obstacles, including wedges, stakes, boxes, trapezoids, and narrow beams. The whole pipeline of capturing, reconstructing, and test-time training requires less than 10 minutes on most tested terrains. Extensive experiments show that the policy after test-time training exhibits robust zero-shot sim-to-real transfer capability.
- Abstract(参考訳): 目に見えない複雑な地形で、非常にダイナミックなヒューマノイドパークを実現することは、ロボティクスの課題である。
一般的な移動政策は広い地形分布にまたがる能力を示すが、それらはしばしば任意で非常に困難な環境に苦しむ。
この制限を克服するために,新しい地形における高速テストタイムトレーニング(TTT)を活用し,極めて困難な地形を横断するロボットの能力を大幅に向上する,リアルタイム・シミュレート・トゥ・リアルなフレームワークを提案する。
2段階のエンド・ツー・エンドの学習パラダイムを採用する: ポリシーはまず、様々な手続き的に生成された地形で事前訓練され、続いて、現実世界のキャプチャから再構築された高忠実度メッシュで高速に微調整される。
具体的には、RGB-D入力を用いたフィードフォワード、効率的、高忠実な幾何再構成パイプラインを開発し、テスト時間トレーニング時の速度と品質を両立させる。
TTT-Parkourは、くさび、ステック、ボックス、トラップエイド、狭いビームなど、複雑な障害物をマスターするために、ヒューマノイドロボットを活用できることを実証する。
捕獲、再構築、テストタイムトレーニングのパイプライン全体は、ほとんどのテストされた地形で10分未満で済む。
大規模な実験により,テストタイムトレーニング後の方針は安定なゼロショット・シミュレート・トゥ・リアル・トランスファー能力を示すことが示された。
関連論文リスト
- PUMA: Perception-driven Unified Foothold Prior for Mobility Augmented Quadruped Parkour [18.593929869124864]
四足歩行のパーサータスクは、アジャイルの移動の有望なベンチマークとして現れている。
本稿では,視覚的知覚と足跡を1段階の学習プロセスに統合するエンドツーエンド学習フレームワークPUMAを提案する。
論文 参考訳(メタデータ) (2026-01-22T14:16:12Z) - BeamDojo: Learning Agile Humanoid Locomotion on Sparse Footholds [35.62230804783507]
既存の学習ベースのアプローチは、足場不足や非効率な学習プロセスのために、複雑な地形で苦労することが多い。
BeamDojoはアジャイルなヒューマノイドの移動を可能にするための強化学習フレームワークです。
BeamDojoはシミュレーションで効率的な学習を実現し、現実世界の狭い足場に正確な足場を配置してアジャイルの移動を可能にする。
論文 参考訳(メタデータ) (2025-02-14T18:42:42Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - Robot Parkour Learning [70.56172796132368]
Parkourは、さまざまな障害物を素早く克服するロボットを必要とする、足で動くロボットにとって、大きな挑戦だ。
我々は,パープルスキルを生成するために,直接コロケーションにインスパイアされた強化学習手法を開発した。
我々は、これらの技術を単一の視覚に基づくパーサーポリシーに抽出し、エゴセントリックな深度カメラを用いて四足歩行ロボットに転送する。
論文 参考訳(メタデータ) (2023-09-11T17:59:17Z) - Learning Robust, Agile, Natural Legged Locomotion Skills in the Wild [17.336553501547282]
我々は、挑戦的な地形上で頑丈で、アジャイルで、自然な足の運動スキルを学ぶための新しいフレームワークを提案する。
四足歩行ロボットのシミュレーションと実世界における実証実験の結果,提案アルゴリズムは難易度の高い地形を頑健に横断できることを示した。
論文 参考訳(メタデータ) (2023-04-21T11:09:23Z) - Learning and Adapting Agile Locomotion Skills by Transferring Experience [71.8926510772552]
本稿では,既存のコントローラから新しいタスクを学習するために経験を移譲することで,複雑なロボティクススキルを訓練するためのフレームワークを提案する。
提案手法は,複雑なアジャイルジャンプ行動の学習,後肢を歩いたまま目標地点への移動,新しい環境への適応を可能にする。
論文 参考訳(メタデータ) (2023-04-19T17:37:54Z) - Robust and Versatile Bipedal Jumping Control through Reinforcement
Learning [141.56016556936865]
この研究は、トルク制御された二足歩行ロボットが実世界で頑丈で多目的なダイナミックジャンプを行えるようにすることで、二足歩行ロボットの機敏さの限界を推し進めることを目的としている。
本稿では,ロボットが様々な場所や方向へジャンプするなど,さまざまなジャンプタスクを達成するための強化学習フレームワークを提案する。
我々は,ロボットの長期入出力(I/O)履歴を符号化し,短期I/O履歴への直接アクセスを可能にする新しいポリシー構造を開発する。
論文 参考訳(メタデータ) (2023-02-19T01:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。