論文の概要: BeamDojo: Learning Agile Humanoid Locomotion on Sparse Footholds
- arxiv url: http://arxiv.org/abs/2502.10363v3
- Date: Sun, 27 Apr 2025 13:49:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 18:43:11.160394
- Title: BeamDojo: Learning Agile Humanoid Locomotion on Sparse Footholds
- Title(参考訳): BeamDojo: 疎い足場でアジャイルのヒューマノイドロコモーションを学ぶ
- Authors: Huayi Wang, Zirui Wang, Junli Ren, Qingwei Ben, Tao Huang, Weinan Zhang, Jiangmiao Pang,
- Abstract要約: 既存の学習ベースのアプローチは、足場不足や非効率な学習プロセスのために、複雑な地形で苦労することが多い。
BeamDojoはアジャイルなヒューマノイドの移動を可能にするための強化学習フレームワークです。
BeamDojoはシミュレーションで効率的な学習を実現し、現実世界の狭い足場に正確な足場を配置してアジャイルの移動を可能にする。
- 参考スコア(独自算出の注目度): 35.62230804783507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traversing risky terrains with sparse footholds poses a significant challenge for humanoid robots, requiring precise foot placements and stable locomotion. Existing learning-based approaches often struggle on such complex terrains due to sparse foothold rewards and inefficient learning processes. To address these challenges, we introduce BeamDojo, a reinforcement learning (RL) framework designed for enabling agile humanoid locomotion on sparse footholds. BeamDojo begins by introducing a sampling-based foothold reward tailored for polygonal feet, along with a double critic to balancing the learning process between dense locomotion rewards and sparse foothold rewards. To encourage sufficient trial-and-error exploration, BeamDojo incorporates a two-stage RL approach: the first stage relaxes the terrain dynamics by training the humanoid on flat terrain while providing it with task-terrain perceptive observations, and the second stage fine-tunes the policy on the actual task terrain. Moreover, we implement a onboard LiDAR-based elevation map to enable real-world deployment. Extensive simulation and real-world experiments demonstrate that BeamDojo achieves efficient learning in simulation and enables agile locomotion with precise foot placement on sparse footholds in the real world, maintaining a high success rate even under significant external disturbances.
- Abstract(参考訳): 狭い足場で危険な地形をトラバースすることは、人間型ロボットにとって重要な課題であり、正確な足の配置と安定した移動を必要としている。
既存の学習ベースのアプローチは、足場不足や非効率な学習プロセスのために、このような複雑な地形で苦労することが多い。
このような課題に対処するために,私たちは,アジャイルなヒューマノイドの移動を可能にするために設計された強化学習(RL)フレームワークであるBeamDojoを紹介します。
BeamDojoは、多角形の足に適したサンプリングベースの足場報酬の導入から始まり、密集した移動報酬と疎い足場報酬の学習プロセスのバランスをとることを批判している。
十分な試行錯誤を奨励するために、BeamDojoは2段階のRLアプローチを取り入れている。第1段階は、平面地形上でヒューマノイドを訓練し、タスク・テランの知覚的な観察を提供し、第2段階は実際のタスク・ランドスケープに関するポリシーを微調整する。
さらに,実世界の展開を実現するために,LiDARを用いた標高マップを実装した。
大規模なシミュレーションと実世界の実験は、BeamDojoがシミュレーションにおける効率的な学習を実現し、現実世界の狭い足場に正確な足場を配置してアジャイルの移動を可能にし、大きな外部障害の下でも高い成功率を維持することを実証している。
関連論文リスト
- A General Infrastructure and Workflow for Quadrotor Deep Reinforcement Learning and Reality Deployment [48.90852123901697]
本稿では, エンドツーエンドの深層強化学習(DRL)ポリシーを四元数へシームレスに移行できるプラットフォームを提案する。
本プラットフォームは, ホバリング, 動的障害物回避, 軌道追尾, 気球打上げ, 未知環境における計画など, 多様な環境を提供する。
論文 参考訳(メタデータ) (2025-04-21T14:25:23Z) - Learning Humanoid Standing-up Control across Diverse Postures [27.79222176982376]
本稿では,立ち上がり制御をゼロから学習する強化学習フレームワークであるHoST(Humanoid Standing-up Control)を提案する。
HoSTは、多面的アーキテクチャと多様なシミュレーション地形におけるカリキュラムベースのトレーニングを活用して、姿勢適応運動を効果的に学習する。
実験結果から, 各種実験室および屋外環境におけるスムーズ, 安定, 頑健な立位運動が得られた。
論文 参考訳(メタデータ) (2025-02-12T13:10:09Z) - Learning Humanoid Locomotion over Challenging Terrain [84.35038297708485]
本研究では,自然と人為的な地形を横断する視覚障害者の移動に対する学習に基づくアプローチを提案する。
本モデルではまず, 時系列モデルを用いた平地軌道のデータセット上で事前学習を行い, 補強学習を用いて不均一な地形を微調整する。
本研究では, 荒面, 変形面, 傾斜面など, 様々な地形にまたがる実際のヒューマノイドロボットを用いて, モデルを評価する。
論文 参考訳(メタデータ) (2024-10-04T17:57:09Z) - Learning Bipedal Walking for Humanoid Robots in Challenging Environments with Obstacle Avoidance [0.3481985817302898]
深層強化学習は、動的歩行を実現するためのヒューマノイドロボットの実装に成功している。
本稿では,政策に基づく強化学習を用いて,障害物が存在する環境下での2足歩行を実現することを目的とする。
論文 参考訳(メタデータ) (2024-09-25T07:02:04Z) - Dexterous Legged Locomotion in Confined 3D Spaces with Reinforcement
Learning [37.95557495560936]
低レベルな動作コマンドを生成することで,これらの経路を追従するように訓練されたRLベースのポリシーと,従来の計画的計画立案を組み合わさった階層型移動制御器を導入する。
シミュレーションでは、我々の階層的アプローチは制限された3D環境をナビゲートすることに成功し、純粋なエンドツーエンド学習アプローチとパラメータ化された運動スキルの両方を上回ります。
論文 参考訳(メタデータ) (2024-03-06T16:49:08Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - Learning Robust, Agile, Natural Legged Locomotion Skills in the Wild [17.336553501547282]
我々は、挑戦的な地形上で頑丈で、アジャイルで、自然な足の運動スキルを学ぶための新しいフレームワークを提案する。
四足歩行ロボットのシミュレーションと実世界における実証実験の結果,提案アルゴリズムは難易度の高い地形を頑健に横断できることを示した。
論文 参考訳(メタデータ) (2023-04-21T11:09:23Z) - Legged Locomotion in Challenging Terrains using Egocentric Vision [70.37554680771322]
本稿では,階段,縁石,石段,隙間を横断できる最初のエンドツーエンド移動システムを提案する。
この結果を,1台の前面深度カメラを用いた中型四足歩行ロボットに示す。
論文 参考訳(メタデータ) (2022-11-14T18:59:58Z) - A Walk in the Park: Learning to Walk in 20 Minutes With Model-Free
Reinforcement Learning [86.06110576808824]
深層強化学習は、制御されていない環境での学習ポリシーに対する有望なアプローチである。
機械学習アルゴリズムとライブラリの最近の進歩と、慎重に調整されたロボットコントローラを組み合わせることで、現実世界では4分で学習できる。
論文 参考訳(メタデータ) (2022-08-16T17:37:36Z) - Learning Coordinated Terrain-Adaptive Locomotion by Imitating a
Centroidal Dynamics Planner [27.476911967228926]
強化学習(Reinforcement Learning, RL)は、動的リアクティブコントローラを学習できるが、優れた歩行を生み出すためには、慎重に調整された形状の報酬が必要である。
模倣学習は、この問題を回避し、平坦な地形の四足歩行を抽出するためにモーションキャプチャーデータと共に使用されてきた。
学習した方針が見えない地形に移行し、動的に困難な地形を横切るように微調整できることを示す。
論文 参考訳(メタデータ) (2021-10-30T14:24:39Z) - Learning to Jump from Pixels [23.17535989519855]
我々は、高度にアジャイルな視覚的誘導行動の合成法であるDepth-based Impulse Control (DIC)を提案する。
DICは、モデルフリー学習の柔軟性を提供するが、地面反応力の明示的なモデルベース最適化により、振る舞いを規則化する。
提案手法をシミュレーションと実世界の両方で評価する。
論文 参考訳(メタデータ) (2021-10-28T17:53:06Z) - Learning High-Speed Flight in the Wild [101.33104268902208]
複雑な自然環境や人工環境を高速で自律的に飛行するエンド・ツー・エンドのアプローチを提案する。
鍵となる原理は、雑音の知覚観測を直接、後退水平方向に無衝突軌道にマッピングすることである。
現実的なセンサノイズをシミュレートすることにより,シミュレーションから現実環境へのゼロショット転送を実現する。
論文 参考訳(メタデータ) (2021-10-11T09:43:11Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Learning Quadrupedal Locomotion over Challenging Terrain [68.51539602703662]
足の移動はロボティクスの操作領域を劇的に拡張することができる。
足の移動のための従来のコントローラーは、運動プリミティブと反射の実行を明示的にトリガーする精巧な状態マシンに基づいている。
ここでは、自然環境に挑戦する際の足の移動に対して、徹底的に頑健な制御器を提案する。
論文 参考訳(メタデータ) (2020-10-21T19:11:20Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。