論文の概要: Legged Locomotion in Challenging Terrains using Egocentric Vision
- arxiv url: http://arxiv.org/abs/2211.07638v1
- Date: Mon, 14 Nov 2022 18:59:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 15:51:33.780260
- Title: Legged Locomotion in Challenging Terrains using Egocentric Vision
- Title(参考訳): エゴセントリックビジョンを用いた挑戦的地形における脚部移動
- Authors: Ananye Agarwal, Ashish Kumar, Jitendra Malik, Deepak Pathak
- Abstract要約: 本稿では,階段,縁石,石段,隙間を横断できる最初のエンドツーエンド移動システムを提案する。
この結果を,1台の前面深度カメラを用いた中型四足歩行ロボットに示す。
- 参考スコア(独自算出の注目度): 70.37554680771322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Animals are capable of precise and agile locomotion using vision. Replicating
this ability has been a long-standing goal in robotics. The traditional
approach has been to decompose this problem into elevation mapping and foothold
planning phases. The elevation mapping, however, is susceptible to failure and
large noise artifacts, requires specialized hardware, and is biologically
implausible. In this paper, we present the first end-to-end locomotion system
capable of traversing stairs, curbs, stepping stones, and gaps. We show this
result on a medium-sized quadruped robot using a single front-facing depth
camera. The small size of the robot necessitates discovering specialized gait
patterns not seen elsewhere. The egocentric camera requires the policy to
remember past information to estimate the terrain under its hind feet. We train
our policy in simulation. Training has two phases - first, we train a policy
using reinforcement learning with a cheap-to-compute variant of depth image and
then in phase 2 distill it into the final policy that uses depth using
supervised learning. The resulting policy transfers to the real world and is
able to run in real-time on the limited compute of the robot. It can traverse a
large variety of terrain while being robust to perturbations like pushes,
slippery surfaces, and rocky terrain. Videos are at
https://vision-locomotion.github.io
- Abstract(参考訳): 動物は視覚を使って精密でアジャイルな移動ができる。
この能力の複製は、ロボティクスにおける長年の目標だった。
従来のアプローチでは、この問題を標高マッピングと足場計画フェーズに分解する必要があった。
しかし、標高マッピングは故障や大きなノイズアーティファクトに影響を受けやすく、特殊なハードウェアを必要とし、生物学的には当てはまらない。
本稿では,階段,縁石,踏み石,隙間を横切ることができる最初のエンドツーエンド移動システムを提案する。
この結果を,1台の前面深度カメラを用いた中型四足歩行ロボットに示す。
ロボットの小型化は、他では見られない特殊な歩行パターンの発見を必要とする。
エゴセントリックなカメラは、過去の情報を記憶して後足下の地形を推定する必要がある。
私たちはシミュレーションで政策を訓練する。
トレーニングには2つのフェーズがある – まずは、安価で計算可能な深度画像を用いて強化学習を使用してポリシーを訓練し、次に第2フェーズでは、教師付き学習を使用して深度を使用する最終ポリシーに蒸留する。
結果として得られるポリシーは現実世界に転送され、ロボットの限られた計算でリアルタイムで実行することができる。
様々な地形を横切ることができ、押し込み、滑りやすい表面、岩の多い地形といった摂動に頑丈である。
ビデオはhttps://vision-locomotion.github.io
関連論文リスト
- Learning Vision-based Pursuit-Evasion Robot Policies [54.52536214251999]
我々は、部分的に観察可能なロボットの監督を生成する完全観測可能なロボットポリシーを開発する。
我々は、RGB-Dカメラを搭載した4足歩行ロボットに、野生での追従回避のインタラクションにポリシーを展開させる。
論文 参考訳(メタデータ) (2023-08-30T17:59:05Z) - Barkour: Benchmarking Animal-level Agility with Quadruped Robots [70.97471756305463]
脚付きロボットのアジリティを定量化するための障害物コースであるBarkourベンチマークを導入する。
犬の機敏性の競争に触発され、様々な障害と時間に基づくスコアリング機構から構成される。
ベンチマークに対処する2つの方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T02:49:43Z) - Neural Volumetric Memory for Visual Locomotion Control [11.871849736648237]
本研究では、1台の前方深度カメラを用いて、挑戦的な地形を移動させることの難しさを考察する。
この問題を解決するため,映像の3次元幾何学を明示的にモデル化するコンピュータビジョンのパラダイムを踏襲する。
トレーニング中に幾何的先行を明示的に導入するアプローチは,よりナイーブな手法よりも優れた性能を提供することを示す。
論文 参考訳(メタデータ) (2023-04-03T17:59:56Z) - Legs as Manipulator: Pushing Quadrupedal Agility Beyond Locomotion [34.33972863987201]
我々は四足歩行ロボットを訓練し、前脚を使って壁を登り、ボタンを押し、現実世界でオブジェクトインタラクションを行う。
これらのスキルはカリキュラムを用いてシミュレーションで訓練され,提案したsim2real 変種を用いて実世界へ移行する。
我々は,本手法をシミュレーションと実世界の双方で評価し,短距離および長距離のタスクの実行を成功させたことを示す。
論文 参考訳(メタデータ) (2023-03-20T17:59:58Z) - Advanced Skills by Learning Locomotion and Local Navigation End-to-End [10.872193480485596]
本研究は, 深層強化学習によるエンドツーエンド政策の訓練により, 完全な問題を解決することを提案する。
実際の四足歩行ロボットにおけるポリシーの展開を実演する。
論文 参考訳(メタデータ) (2022-09-26T16:35:00Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - Quadruped Locomotion on Non-Rigid Terrain using Reinforcement Learning [10.729374293332281]
非剛性な動的地形上での移動学習のための新しい強化学習フレームワークを提案する。
55cmのトレーニングを受けたロボットは、最大5cmまで沈むことができる地形を歩ける。
様々な地形条件でロボットを訓練することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2021-07-07T00:34:23Z) - Learning to Walk in the Real World with Minimal Human Effort [80.7342153519654]
我々は,人間の努力を最小限に抑えて,現実世界の深いRLを用いた足の移動ポリシーを学習するシステムを開発した。
人間の介入がほとんどないミニチュアロボットにおいて,ロボットの移動スキルを自動的かつ効率的に学習することができる。
論文 参考訳(メタデータ) (2020-02-20T03:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。