論文の概要: Fast Traversability Estimation for Wild Visual Navigation
- arxiv url: http://arxiv.org/abs/2305.08510v2
- Date: Tue, 16 May 2023 08:49:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 10:50:44.621006
- Title: Fast Traversability Estimation for Wild Visual Navigation
- Title(参考訳): 野生視覚ナビゲーションのための高速トラバーサビリティ推定
- Authors: Jonas Frey and Matias Mattamala and Nived Chebrolu and Cesar Cadena
and Maurice Fallon and Marco Hutter
- Abstract要約: トラバーサビリティ推定のためのオンライン自己教師型学習システムであるWild Visual Navigation (WVN)を提案する。
このシステムは、現場での短い人間のデモから継続的に適応することができる。
森林・公園・草地における挑戦的環境における実験・アブレーション研究によるアプローチの利点を実証する。
- 参考スコア(独自算出の注目度): 17.015268056925745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural environments such as forests and grasslands are challenging for
robotic navigation because of the false perception of rigid obstacles from high
grass, twigs, or bushes. In this work, we propose Wild Visual Navigation (WVN),
an online self-supervised learning system for traversability estimation which
uses only vision. The system is able to continuously adapt from a short human
demonstration in the field. It leverages high-dimensional features from
self-supervised visual transformer models, with an online scheme for
supervision generation that runs in real-time on the robot. We demonstrate the
advantages of our approach with experiments and ablation studies in challenging
environments in forests, parks, and grasslands. Our system is able to bootstrap
the traversable terrain segmentation in less than 5 min of in-field training
time, enabling the robot to navigate in complex outdoor terrains - negotiating
obstacles in high grass as well as a 1.4 km footpath following. While our
experiments were executed with a quadruped robot, ANYmal, the approach
presented can generalize to any ground robot.
- Abstract(参考訳): 森林や草原などの自然環境は、高い草や小枝、茂みからの障害物を誤認識しているため、ロボットの航行には困難である。
本研究では,視覚のみを用いたトラバーサビリティ推定のためのオンライン自己教師型学習システムWild Visual Navigation (WVN)を提案する。
このシステムは、現場での短い人間のデモから継続的に適応することができる。
自己監督型ビジュアルトランスフォーマーモデルの高次元機能を活用し、ロボット上でリアルタイムで実行される監視生成のためのオンラインスキームを利用する。
森林,公園,草原における挑戦的環境における実験およびアブレーション実験により,本手法の利点を実証する。
我々のシステムは、移動可能な地形セグメンテーションを5分未満のフィールドトレーニング時間でブートストラップすることができ、ロボットは複雑な屋外の地形をナビゲートすることができる。
実験は四足歩行ロボットANYmalで行われましたが、提案したアプローチはどんな地上ロボットにも一般化できます。
関連論文リスト
- Learning Humanoid Locomotion over Challenging Terrain [84.35038297708485]
本研究では,自然と人為的な地形を横断する視覚障害者の移動に対する学習に基づくアプローチを提案する。
本モデルではまず, 時系列モデルを用いた平地軌道のデータセット上で事前学習を行い, 補強学習を用いて不均一な地形を微調整する。
本研究では, 荒面, 変形面, 傾斜面など, 様々な地形にまたがる実際のヒューマノイドロボットを用いて, モデルを評価する。
論文 参考訳(メタデータ) (2024-10-04T17:57:09Z) - Wild Visual Navigation: Fast Traversability Learning via Pre-Trained Models and Online Self-Supervision [27.65408575883111]
視覚的可視性推定のためのオンライン自己教師型学習システムWild Visual Navigation (WVN) を提案する。
このシステムは、オンボードセンシングとコンピューティングのみを使用して、現場での短い人間のデモから継続的に適応することができる。
我々は、森林、公園、草地における様々な現実世界の展開を通じて、我々のアプローチを実証する。
論文 参考訳(メタデータ) (2024-04-10T15:47:35Z) - STERLING: Self-Supervised Terrain Representation Learning from
Unconstrained Robot Experience [43.49602846732077]
自己教師型テレイン表現学習(STERling)について紹介する。
STERlingは、地形表現を学習するための新しいアプローチであり、簡単に編集できる、制約のない(例えば、非専門家)、非ラベルのロボット体験にのみ依存する。
我々は、優先的な視覚ナビゲーションのタスクにおけるSTERling機能を評価し、STERling機能が完全に教師付きされたアプローチと同等に機能することを見出した。
論文 参考訳(メタデータ) (2023-09-26T22:55:32Z) - How Does It Feel? Self-Supervised Costmap Learning for Off-Road Vehicle
Traversability [7.305104984234086]
オフロード環境における地形の移動性の推定には、ロボットとこれらの地形の間の複雑な相互作用のダイナミクスを推論する必要がある。
本研究では,外外環境情報と固有地形相互作用フィードバックを組み合わせることで,トラバーサビリティのコストマップを予測する手法を提案する。
論文 参考訳(メタデータ) (2022-09-22T05:18:35Z) - Learning Semantics-Aware Locomotion Skills from Human Demonstration [35.996425893483796]
四足歩行ロボットの知覚からセマンティクスを意識したロコモーションスキルを学習するフレームワークを提案する。
本フレームワークは,認識された地形意味に基づいてロボットの速度と歩行を調整し,失敗することなく6km以上歩けるようにする。
論文 参考訳(メタデータ) (2022-06-27T21:08:03Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z) - BADGR: An Autonomous Self-Supervised Learning-Based Navigation System [158.6392333480079]
BadGRは、エンドツーエンドの学習ベースのモバイルロボットナビゲーションシステムである。
実際の環境で収集された、自己監督型のオフポリシーデータでトレーニングすることができる。
BadGRは、幾何学的に邪魔な障害物を伴って、現実世界の都市やオフロード環境をナビゲートすることができる。
論文 参考訳(メタデータ) (2020-02-13T18:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。