論文の概要: Learning Bipedal Walking On Planned Footsteps For Humanoid Robots
- arxiv url: http://arxiv.org/abs/2207.12644v1
- Date: Tue, 26 Jul 2022 04:16:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 12:32:08.057374
- Title: Learning Bipedal Walking On Planned Footsteps For Humanoid Robots
- Title(参考訳): 人間型ロボットのための二足歩行学習
- Authors: Rohan Pratap Singh, Mehdi Benallegue, Mitsuharu Morisawa, Rafael
Cisneros, Fumio Kanehiro
- Abstract要約: 脚付きロボットのための深部強化学習(RL)ベースのコントローラーは、いくつかのロボットプラットフォームのために異なる環境を歩行する際、顕著な頑丈さを実証している。
ヒューマノイドロボットへのRLポリシーの適用を現実の環境で実現するためには,どのような方向にも堅牢な歩行を実現するシステムを構築することが不可欠である。
本稿では,あるステップシーケンスに従うポリシーを学習することで,この問題に対処する。
今後の2つのステップをポリシーに投入するだけで、一方向歩行、位置転換、立ち上がり、階段を登るのに十分であることを示す。
- 参考スコア(独自算出の注目度): 5.127310126394387
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep reinforcement learning (RL) based controllers for legged robots have
demonstrated impressive robustness for walking in different environments for
several robot platforms. To enable the application of RL policies for humanoid
robots in real-world settings, it is crucial to build a system that can achieve
robust walking in any direction, on 2D and 3D terrains, and be controllable by
a user-command. In this paper, we tackle this problem by learning a policy to
follow a given step sequence. The policy is trained with the help of a set of
procedurally generated step sequences (also called footstep plans). We show
that simply feeding the upcoming 2 steps to the policy is sufficient to achieve
omnidirectional walking, turning in place, standing, and climbing stairs. Our
method employs curriculum learning on the complexity of terrains, and
circumvents the need for reference motions or pre-trained weights. We
demonstrate the application of our proposed method to learn RL policies for 2
new robot platforms - HRP5P and JVRC-1 - in the MuJoCo simulation environment.
The code for training and evaluation is available online.
- Abstract(参考訳): 脚付きロボットのための深部強化学習(RL)ベースのコントローラーは、いくつかのロボットプラットフォームのために異なる環境を歩行する際、顕著な堅牢性を示している。
実世界におけるヒューマノイドロボットのRLポリシーの適用を可能にするためには, 任意の方向, 2次元, 3次元の地形でロバストな歩行を実現し, 利用者が制御できるシステムの構築が不可欠である。
本稿では,あるステップシーケンスに従うポリシーを学習することで,この問題に対処する。
この方針は手続き的に生成された一連のステップシーケンス(フットステップ計画とも呼ばれる)の助けを借りて訓練される。
今後の2つのステップをポリシーに投入するだけで、一方向歩行、位置転換、立ち上がり、階段を登るのに十分であることを示す。
本手法では, 地形の複雑さをカリキュラム学習し, 基準動作や事前学習重みの必要を回避する。
提案手法を適用して,MuJoCoシミュレーション環境における2つのロボットプラットフォーム(HRP5PとJVRC-1)のRLポリシーを学習する。
トレーニングと評価のコードはオンラインで入手できる。
関連論文リスト
- Octo: An Open-Source Generalist Robot Policy [88.14295917143188]
ここでは,Open X-Embodimentデータセットから800kトラジェクトリをトレーニングした,大規模なトランスフォーマーベースのポリシであるOctoを紹介する。
標準のGPUでは数時間以内に、新しいセンサー入力とアクションスペースを備えたロボットセットアップに効果的にカスタマイズできる。
また,アーキテクチャからトレーニングデータに至るまで,Octoモデルの設計決定の詳細な説明を行い,汎用ロボットモデルの構築に関する今後の研究を指導する。
論文 参考訳(メタデータ) (2024-05-20T17:57:01Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement
Learning [85.21378553454672]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - Quality-Diversity Optimisation on a Physical Robot Through
Dynamics-Aware and Reset-Free Learning [4.260312058817663]
本研究では,リセットフリーQD(RF-QD)アルゴリズムを用いて,物理ロボット上で直接コントローラを学習する。
本手法は,ロボットと環境との相互作用から学習したダイナミクスモデルを用いて,ロボットの動作を予測する。
RF-QDには、ロボットが外を歩いたときに安全なゾーンに戻すリカバリポリシーも含まれており、継続的な学習を可能にしている。
論文 参考訳(メタデータ) (2023-04-24T13:24:00Z) - Learning Bipedal Walking for Humanoids with Current Feedback [5.429166905724048]
アクチュエータレベルでの不正確なトルクトラッキングから生じるヒューマノイドロボットのシム2リアルギャップ問題を克服するためのアプローチを提案する。
提案手法は、実際のHRP-5Pヒューマノイドロボットに展開して二足歩行を実現するシミュレーションにおいて、一貫したエンドツーエンドのポリシーをトレーニングする。
論文 参考訳(メタデータ) (2023-03-07T08:16:46Z) - A Walk in the Park: Learning to Walk in 20 Minutes With Model-Free
Reinforcement Learning [86.06110576808824]
深層強化学習は、制御されていない環境での学習ポリシーに対する有望なアプローチである。
機械学習アルゴリズムとライブラリの最近の進歩と、慎重に調整されたロボットコントローラを組み合わせることで、現実世界では4分で学習できる。
論文 参考訳(メタデータ) (2022-08-16T17:37:36Z) - Bayesian Meta-Learning for Few-Shot Policy Adaptation Across Robotic
Platforms [60.59764170868101]
強化学習手法は、重要な性能を達成できるが、同じロボットプラットフォームで収集される大量のトレーニングデータを必要とする。
私たちはそれを、さまざまなロボットプラットフォームで共有される共通の構造を捉えるモデルを見つけることを目標とする、数ショットのメタラーニング問題として定式化します。
我々は,400個のロボットを用いて,実ロボットピッキング作業とシミュレーションリーチの枠組みを実験的に評価した。
論文 参考訳(メタデータ) (2021-03-05T14:16:20Z) - PPMC RL Training Algorithm: Rough Terrain Intelligent Robots through
Reinforcement Learning [4.314956204483074]
本稿では,任意のロボットに対して,粗い環境で一般化されたPPMCを指導する汎用的なトレーニングアルゴリズムを提案する。
我々は,ロボットが新しい地形マップに一般化することを学習し,100%の成功率を維持する実験を通して示す。
我々の知る限りでは、どんなロボットにも、粗い環境で一般化PPMCを教える汎用的なトレーニングアルゴリズムを導入する最初の論文である。
論文 参考訳(メタデータ) (2020-03-02T10:14:52Z) - Learning to Walk in the Real World with Minimal Human Effort [80.7342153519654]
我々は,人間の努力を最小限に抑えて,現実世界の深いRLを用いた足の移動ポリシーを学習するシステムを開発した。
人間の介入がほとんどないミニチュアロボットにおいて,ロボットの移動スキルを自動的かつ効率的に学習することができる。
論文 参考訳(メタデータ) (2020-02-20T03:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。