論文の概要: Legged Locomotion in Challenging Terrains using Egocentric Vision
- arxiv url: http://arxiv.org/abs/2211.07638v1
- Date: Mon, 14 Nov 2022 18:59:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 15:51:33.780260
- Title: Legged Locomotion in Challenging Terrains using Egocentric Vision
- Title(参考訳): エゴセントリックビジョンを用いた挑戦的地形における脚部移動
- Authors: Ananye Agarwal, Ashish Kumar, Jitendra Malik, Deepak Pathak
- Abstract要約: 本稿では,階段,縁石,石段,隙間を横断できる最初のエンドツーエンド移動システムを提案する。
この結果を,1台の前面深度カメラを用いた中型四足歩行ロボットに示す。
- 参考スコア(独自算出の注目度): 70.37554680771322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Animals are capable of precise and agile locomotion using vision. Replicating
this ability has been a long-standing goal in robotics. The traditional
approach has been to decompose this problem into elevation mapping and foothold
planning phases. The elevation mapping, however, is susceptible to failure and
large noise artifacts, requires specialized hardware, and is biologically
implausible. In this paper, we present the first end-to-end locomotion system
capable of traversing stairs, curbs, stepping stones, and gaps. We show this
result on a medium-sized quadruped robot using a single front-facing depth
camera. The small size of the robot necessitates discovering specialized gait
patterns not seen elsewhere. The egocentric camera requires the policy to
remember past information to estimate the terrain under its hind feet. We train
our policy in simulation. Training has two phases - first, we train a policy
using reinforcement learning with a cheap-to-compute variant of depth image and
then in phase 2 distill it into the final policy that uses depth using
supervised learning. The resulting policy transfers to the real world and is
able to run in real-time on the limited compute of the robot. It can traverse a
large variety of terrain while being robust to perturbations like pushes,
slippery surfaces, and rocky terrain. Videos are at
https://vision-locomotion.github.io
- Abstract(参考訳): 動物は視覚を使って精密でアジャイルな移動ができる。
この能力の複製は、ロボティクスにおける長年の目標だった。
従来のアプローチでは、この問題を標高マッピングと足場計画フェーズに分解する必要があった。
しかし、標高マッピングは故障や大きなノイズアーティファクトに影響を受けやすく、特殊なハードウェアを必要とし、生物学的には当てはまらない。
本稿では,階段,縁石,踏み石,隙間を横切ることができる最初のエンドツーエンド移動システムを提案する。
この結果を,1台の前面深度カメラを用いた中型四足歩行ロボットに示す。
ロボットの小型化は、他では見られない特殊な歩行パターンの発見を必要とする。
エゴセントリックなカメラは、過去の情報を記憶して後足下の地形を推定する必要がある。
私たちはシミュレーションで政策を訓練する。
トレーニングには2つのフェーズがある – まずは、安価で計算可能な深度画像を用いて強化学習を使用してポリシーを訓練し、次に第2フェーズでは、教師付き学習を使用して深度を使用する最終ポリシーに蒸留する。
結果として得られるポリシーは現実世界に転送され、ロボットの限られた計算でリアルタイムで実行することができる。
様々な地形を横切ることができ、押し込み、滑りやすい表面、岩の多い地形といった摂動に頑丈である。
ビデオはhttps://vision-locomotion.github.io
関連論文リスト
- Learning Humanoid Locomotion over Challenging Terrain [84.35038297708485]
本研究では,自然と人為的な地形を横断する視覚障害者の移動に対する学習に基づくアプローチを提案する。
本モデルではまず, 時系列モデルを用いた平地軌道のデータセット上で事前学習を行い, 補強学習を用いて不均一な地形を微調整する。
本研究では, 荒面, 変形面, 傾斜面など, 様々な地形にまたがる実際のヒューマノイドロボットを用いて, モデルを評価する。
論文 参考訳(メタデータ) (2024-10-04T17:57:09Z) - Gaitor: Learning a Unified Representation Across Gaits for Real-World Quadruped Locomotion [61.01039626207952]
本稿では,移動歩行における乱れと2次元表現を学習するGaitorについて紹介する。
ゲイターの潜伏空間は容易に解釈可能であり、歩行遷移の間、新しい目に見えない歩行が出現することを発見した。
我々は,ANYmal Cプラットフォーム上でのシミュレーションと実世界におけるGaitorの評価を行った。
論文 参考訳(メタデータ) (2024-05-29T19:02:57Z) - Barkour: Benchmarking Animal-level Agility with Quadruped Robots [70.97471756305463]
脚付きロボットのアジリティを定量化するための障害物コースであるBarkourベンチマークを導入する。
犬の機敏性の競争に触発され、様々な障害と時間に基づくスコアリング機構から構成される。
ベンチマークに対処する2つの方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T02:49:43Z) - Legs as Manipulator: Pushing Quadrupedal Agility Beyond Locomotion [34.33972863987201]
我々は四足歩行ロボットを訓練し、前脚を使って壁を登り、ボタンを押し、現実世界でオブジェクトインタラクションを行う。
これらのスキルはカリキュラムを用いてシミュレーションで訓練され,提案したsim2real 変種を用いて実世界へ移行する。
我々は,本手法をシミュレーションと実世界の双方で評価し,短距離および長距離のタスクの実行を成功させたことを示す。
論文 参考訳(メタデータ) (2023-03-20T17:59:58Z) - Advanced Skills by Learning Locomotion and Local Navigation End-to-End [10.872193480485596]
本研究は, 深層強化学習によるエンドツーエンド政策の訓練により, 完全な問題を解決することを提案する。
実際の四足歩行ロボットにおけるポリシーの展開を実演する。
論文 参考訳(メタデータ) (2022-09-26T16:35:00Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - Quadruped Locomotion on Non-Rigid Terrain using Reinforcement Learning [10.729374293332281]
非剛性な動的地形上での移動学習のための新しい強化学習フレームワークを提案する。
55cmのトレーニングを受けたロボットは、最大5cmまで沈むことができる地形を歩ける。
様々な地形条件でロボットを訓練することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2021-07-07T00:34:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。