論文の概要: Learning Sim-to-Real Humanoid Locomotion in 15 Minutes
- arxiv url: http://arxiv.org/abs/2512.01996v1
- Date: Mon, 01 Dec 2025 18:55:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:35.03144
- Title: Learning Sim-to-Real Humanoid Locomotion in 15 Minutes
- Title(参考訳): 15分で人間型ロコモーションを学習する
- Authors: Younggyo Seo, Carmelo Sferrazza, Juyue Chen, Guanya Shi, Rocky Duan, Pieter Abbeel,
- Abstract要約: 本稿では,FastSACとFastTD3という,非政治的RLアルゴリズムに基づくシンプルで実用的なレシピを提案する。
我々の単純なレシピは、何千もの並列環境において、政治外のRLアルゴリズムを大規模に安定化させる。
我々は,Unitree G1 と Booster T1 ロボット上でのヒューマノイド移動制御器のエンドツーエンドの迅速な学習を実演する。
- 参考スコア(独自算出の注目度): 51.500643119683225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Massively parallel simulation has reduced reinforcement learning (RL) training time for robots from days to minutes. However, achieving fast and reliable sim-to-real RL for humanoid control remains difficult due to the challenges introduced by factors such as high dimensionality and domain randomization. In this work, we introduce a simple and practical recipe based on off-policy RL algorithms, i.e., FastSAC and FastTD3, that enables rapid training of humanoid locomotion policies in just 15 minutes with a single RTX 4090 GPU. Our simple recipe stabilizes off-policy RL algorithms at massive scale with thousands of parallel environments through carefully tuned design choices and minimalist reward functions. We demonstrate rapid end-to-end learning of humanoid locomotion controllers on Unitree G1 and Booster T1 robots under strong domain randomization, e.g., randomized dynamics, rough terrain, and push perturbations, as well as fast training of whole-body human-motion tracking policies. We provide videos and open-source implementation at: https://younggyo.me/fastsac-humanoid.
- Abstract(参考訳): 大規模並列シミュレーションは、ロボットの強化学習(RL)訓練時間を数日から数分に短縮した。
しかし、高次元性や領域ランダム化といった要因によってもたらされる課題のため、ヒューマノイド制御のための高速で信頼性の高いsim-to-real RLを実現することは依然として困難である。
本研究では,RTX 4090 GPUを1つのRTX 4090 GPUでわずか15分でヒューマノイド移動ポリシーの迅速なトレーニングを可能にする,オフポリティックなRLアルゴリズム,すなわちFastSACとFastTD3に基づくシンプルで実用的なレシピを提案する。
我々の単純なレシピは、慎重に調整された設計選択と最小限の報酬関数によって、何千もの並列環境で、大規模に非政治的なRLアルゴリズムを安定化する。
我々は,Unitree G1 と Booster T1 ロボット上で,強いドメインランダム化,例えばランダム化ダイナミックス,荒地,押圧摂動といった条件下でのヒューマノイド移動制御の迅速なエンド・ツー・エンド学習と,人体全体の移動追跡ポリシーの迅速な訓練を実演する。
ビデオとオープンソースの実装を以下に示す。
関連論文リスト
- Opening the Sim-to-Real Door for Humanoid Pixel-to-Action Policy Transfer [59.02729900344616]
GPUを加速したフォトリアリスティックなシミュレーションは、ロボット学習のためのスケーラブルなデータ生成パスを開いた。
視覚に基づくヒューマノイドロコ操作のための教師-学生-ブートストラップ学習フレームワークを開発した。
これは、純粋なRGB知覚を用いた多様な調音ロコ操作が可能な初めてのヒューマノイド・シム・トゥ・リアル政策である。
論文 参考訳(メタデータ) (2025-11-30T20:07:13Z) - FastTD3: Simple, Fast, and Capable Reinforcement Learning for Humanoid Control [49.08235196039602]
FastTD3は強化学習(RL)アルゴリズムで、1つのA100 GPU上で3時間以内のHumanoidBenchタスクを解く。
我々はまた、ロボット工学におけるRL研究を加速するために、FastTD3の軽量で使いやすい実装を提供する。
論文 参考訳(メタデータ) (2025-05-28T17:55:26Z) - DrEureka: Language Model Guided Sim-To-Real Transfer [64.14314476811806]
シミュレーションで学んだ政策を現実世界に伝達することは、ロボットのスキルを大規模に獲得する上で有望な戦略である。
本稿では,Large Language Models (LLMs) を用いてシム・トゥ・リアル設計の自動化と高速化を行う。
本手法では,ヨガボールの上を歩行する四足歩行や四足歩行など,新しいロボットタスクを解くことができる。
論文 参考訳(メタデータ) (2024-06-04T04:53:05Z) - Learning Agile Soccer Skills for a Bipedal Robot with Deep Reinforcement Learning [26.13655448415553]
Deep Reinforcement Learning (Deep RL)は、低コストでミニチュアなヒューマノイドロボットのための洗練された安全な運動スキルを合成することができる。
我々はDeep RLを使って、20個の関節を持つヒューマノイドロボットを訓練し、1対1(1v1)のサッカーゲームを単純化した。
結果として得られるエージェントは、急激な転倒回復、歩行、回転、蹴りなど、堅牢でダイナミックな動きのスキルを示す。
論文 参考訳(メタデータ) (2023-04-26T16:25:54Z) - Learning Bipedal Walking for Humanoids with Current Feedback [5.429166905724048]
アクチュエータレベルでの不正確なトルクトラッキングから生じるヒューマノイドロボットのシム2リアルギャップ問題を克服するためのアプローチを提案する。
提案手法は、実際のHRP-5Pヒューマノイドロボットに展開して二足歩行を実現するシミュレーションにおいて、一貫したエンドツーエンドのポリシーをトレーニングする。
論文 参考訳(メタデータ) (2023-03-07T08:16:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。