論文の概要: Extreme Parkour with Legged Robots
- arxiv url: http://arxiv.org/abs/2309.14341v1
- Date: Mon, 25 Sep 2023 17:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 12:38:02.597156
- Title: Extreme Parkour with Legged Robots
- Title(参考訳): 足ロボットによるエクストリームパーク
- Authors: Xuxin Cheng, Kexin Shi, Ananye Agarwal, Deepak Pathak
- Abstract要約: カメラ画像から直接動作する1つのニューラルネットポリシが、不正確なセンシングとアクティベーションを克服できることを示す。
ロボットは高さ2倍の障害物に高いジャンプを行え、長さ2倍の隙間に長いジャンプをし、逆立ちして傾斜した傾斜路を走れることを示す。
- 参考スコア(独自算出の注目度): 43.041181063455255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans can perform parkour by traversing obstacles in a highly dynamic
fashion requiring precise eye-muscle coordination and movement. Getting robots
to do the same task requires overcoming similar challenges. Classically, this
is done by independently engineering perception, actuation, and control systems
to very low tolerances. This restricts them to tightly controlled settings such
as a predetermined obstacle course in labs. In contrast, humans are able to
learn parkour through practice without significantly changing their underlying
biology. In this paper, we take a similar approach to developing robot parkour
on a small low-cost robot with imprecise actuation and a single front-facing
depth camera for perception which is low-frequency, jittery, and prone to
artifacts. We show how a single neural net policy operating directly from a
camera image, trained in simulation with large-scale RL, can overcome imprecise
sensing and actuation to output highly precise control behavior end-to-end. We
show our robot can perform a high jump on obstacles 2x its height, long jump
across gaps 2x its length, do a handstand and run across tilted ramps, and
generalize to novel obstacle courses with different physical properties.
Parkour videos at https://extreme-parkour.github.io/
- Abstract(参考訳): 人間は、正確な眼筋調整と運動を必要とする非常にダイナミックな方法で障害物を横切ることでパークールを行うことができる。
ロボットに同じ仕事をさせるには、同様の課題を克服する必要がある。
古典的には、これは独立してエンジニアリングの認識、アクティベーション、制御システムを非常に低い許容度にすることで行われる。
これにより、実験室で所定の障害物コースなどの厳密に制御された設定に制限される。
対照的に、人間は基礎となる生物学を大きく変えることなく、実践を通じて公園を学べる。
本稿では,不正確なアクチュエーションを持つ小型低コストロボットと,低周波でジッタ状で人工物に近づいた1つの前面深度カメラを用いたロボットパークアの開発に類似したアプローチを提案する。
大規模RLを用いたシミュレーションで訓練された,カメラ画像から直接動作する単一ニューラルネットポリシが,不正確なセンシングやアクティベーションを克服し,高精度な制御動作をエンドツーエンドに出力する方法を示す。
ロボットは高さ2倍の障害物に対して高いジャンプを行え、長さ2倍の隙間を渡り、逆立ちして傾斜した傾斜路を走り、物理的性質の異なる新しい障害物コースに一般化できることを示す。
Parkour video at https://extreme-parkour.github.io/
関連論文リスト
- SoloParkour: Constrained Reinforcement Learning for Visual Locomotion from Privileged Experience [19.817578964184147]
Parkourは、足のついたロボットにとって重要な課題であり、限られた感覚入力に基づいて、俊敏性と精度で複雑な環境をナビゲートする必要がある。
本稿では,深度画素からロボット制御コマンドに至るまでのエンドツーエンドの視覚ポリシーをトレーニングし,アジャイルで安全な四足歩行を実現するための新しい手法を提案する。
本研究では,実際のSolo-12ロボットにおいて,歩行,登山,跳躍,クロールなど,さまざまなパーキングスキルを実行する能力を示す。
論文 参考訳(メタデータ) (2024-09-20T17:39:20Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - Robot Parkour Learning [70.56172796132368]
Parkourは、さまざまな障害物を素早く克服するロボットを必要とする、足で動くロボットにとって、大きな挑戦だ。
我々は,パープルスキルを生成するために,直接コロケーションにインスパイアされた強化学習手法を開発した。
我々は、これらの技術を単一の視覚に基づくパーサーポリシーに抽出し、エゴセントリックな深度カメラを用いて四足歩行ロボットに転送する。
論文 参考訳(メタデータ) (2023-09-11T17:59:17Z) - Barkour: Benchmarking Animal-level Agility with Quadruped Robots [70.97471756305463]
脚付きロボットのアジリティを定量化するための障害物コースであるBarkourベンチマークを導入する。
犬の機敏性の競争に触発され、様々な障害と時間に基づくスコアリング機構から構成される。
ベンチマークに対処する2つの方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T02:49:43Z) - Legs as Manipulator: Pushing Quadrupedal Agility Beyond Locomotion [34.33972863987201]
我々は四足歩行ロボットを訓練し、前脚を使って壁を登り、ボタンを押し、現実世界でオブジェクトインタラクションを行う。
これらのスキルはカリキュラムを用いてシミュレーションで訓練され,提案したsim2real 変種を用いて実世界へ移行する。
我々は,本手法をシミュレーションと実世界の双方で評価し,短距離および長距離のタスクの実行を成功させたことを示す。
論文 参考訳(メタデータ) (2023-03-20T17:59:58Z) - Legged Locomotion in Challenging Terrains using Egocentric Vision [70.37554680771322]
本稿では,階段,縁石,石段,隙間を横断できる最初のエンドツーエンド移動システムを提案する。
この結果を,1台の前面深度カメラを用いた中型四足歩行ロボットに示す。
論文 参考訳(メタデータ) (2022-11-14T18:59:58Z) - Learning fast and agile quadrupedal locomotion over complex terrain [0.3806109052869554]
本研究は,視覚障害者用4足歩行ロボットにおいて,自然かつ安定に高速な移動を実現する頑健な制御器を提案する。
モデルレス強化学習によりシミュレーション環境で学習する。
我々の制御器は優れた反ゆらぎ性能を有し、学習したことのない移動速度に到達できる優れた一般化能力を有する。
論文 参考訳(メタデータ) (2022-07-02T11:20:07Z) - Learning Quadrupedal Locomotion over Challenging Terrain [68.51539602703662]
足の移動はロボティクスの操作領域を劇的に拡張することができる。
足の移動のための従来のコントローラーは、運動プリミティブと反射の実行を明示的にトリガーする精巧な状態マシンに基づいている。
ここでは、自然環境に挑戦する際の足の移動に対して、徹底的に頑健な制御器を提案する。
論文 参考訳(メタデータ) (2020-10-21T19:11:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。