論文の概要: Wild Visual Navigation: Fast Traversability Learning via Pre-Trained Models and Online Self-Supervision
- arxiv url: http://arxiv.org/abs/2404.07110v1
- Date: Wed, 10 Apr 2024 15:47:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 14:11:27.387563
- Title: Wild Visual Navigation: Fast Traversability Learning via Pre-Trained Models and Online Self-Supervision
- Title(参考訳): Wild Visual Navigation: 事前学習モデルとオンラインセルフスーパービジョンによる高速なトラバーサビリティ学習
- Authors: Matías Mattamala, Jonas Frey, Piotr Libera, Nived Chebrolu, Georg Martius, Cesar Cadena, Marco Hutter, Maurice Fallon,
- Abstract要約: 視覚的可視性推定のためのオンライン自己教師型学習システムWild Visual Navigation (WVN) を提案する。
このシステムは、オンボードセンシングとコンピューティングのみを使用して、現場での短い人間のデモから継続的に適応することができる。
我々は、森林、公園、草地における様々な現実世界の展開を通じて、我々のアプローチを実証する。
- 参考スコア(独自算出の注目度): 27.65408575883111
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural environments such as forests and grasslands are challenging for robotic navigation because of the false perception of rigid obstacles from high grass, twigs, or bushes. In this work, we present Wild Visual Navigation (WVN), an online self-supervised learning system for visual traversability estimation. The system is able to continuously adapt from a short human demonstration in the field, only using onboard sensing and computing. One of the key ideas to achieve this is the use of high-dimensional features from pre-trained self-supervised models, which implicitly encode semantic information that massively simplifies the learning task. Further, the development of an online scheme for supervision generator enables concurrent training and inference of the learned model in the wild. We demonstrate our approach through diverse real-world deployments in forests, parks, and grasslands. Our system is able to bootstrap the traversable terrain segmentation in less than 5 min of in-field training time, enabling the robot to navigate in complex, previously unseen outdoor terrains. Code: https://bit.ly/498b0CV - Project page:https://bit.ly/3M6nMHH
- Abstract(参考訳): 森林や草原のような自然環境は、高い草、小枝、茂みからの堅い障害物の誤認識のため、ロボットナビゲーションにとって困難である。
本研究では,視覚的可視性推定のためのオンライン自己教師型学習システムWild Visual Navigation(WVN)を提案する。
このシステムは、オンボードセンシングとコンピューティングのみを使用して、現場での短い人間のデモから継続的に適応することができる。
これを実現するための重要なアイデアの1つは、学習タスクを大幅に単純化する意味情報を暗黙的にエンコードする、事前訓練された自己教師付きモデルからの高次元機能の利用である。
さらに,教師生成のためのオンラインスキームの開発により,学習モデルの学習と推論を同時に行うことが可能となった。
我々は、森林、公園、草地における様々な現実世界の展開を通じて、我々のアプローチを実証する。
我々のシステムは、移動可能な地形セグメンテーションを現地でのトレーニング時間5分未満でブートストラップすることができ、ロボットは複雑な、以前は見えなかった屋外の地形をナビゲートすることができる。
コード:https://bit.ly/498b0CV - Project page:https://bit.ly/3M6nMHH
関連論文リスト
- Gaussian Splatting to Real World Flight Navigation Transfer with Liquid Networks [93.38375271826202]
本研究では,シミュレート・トゥ・リアルな視覚四重項ナビゲーションタスクにおける分布シフトに対する一般化とロバスト性を改善する手法を提案する。
まず,擬似飛行力学とガウススプラッティングを統合してシミュレータを構築し,その後,液状ニューラルネットワークを用いてロバストなナビゲーションポリシーを訓練する。
このようにして、我々は3次元ガウススプラッティングラディアンス場レンダリング、専門家による実演訓練データのプログラミング、およびLiquid Networkのタスク理解能力の進歩を組み合わせたフルスタックの模倣学習プロトコルを得る。
論文 参考訳(メタデータ) (2024-06-21T13:48:37Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Fast Traversability Estimation for Wild Visual Navigation [17.015268056925745]
トラバーサビリティ推定のためのオンライン自己教師型学習システムであるWild Visual Navigation (WVN)を提案する。
このシステムは、現場での短い人間のデモから継続的に適応することができる。
森林・公園・草地における挑戦的環境における実験・アブレーション研究によるアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-05-15T10:19:30Z) - LM-Nav: Robotic Navigation with Large Pre-Trained Models of Language,
Vision, and Action [76.71101507291473]
本稿では,無注釈の大規模軌跡データに対するトレーニングの恩恵を享受するロボットナビゲーションシステムLM-Navを提案する。
本研究では,ナビゲーション(ViNG),画像言語アソシエーション(CLIP),言語モデリング(GPT-3)の事前学習モデルから構築可能なシステムについて述べる。
論文 参考訳(メタデータ) (2022-07-10T10:41:50Z) - WayFAST: Traversability Predictive Navigation for Field Robots [5.914664791853234]
本稿では,車輪付き移動ロボットの走行経路を予測するための自己教師型アプローチを提案する。
キーとなるインスピレーションは、キノダイナミックモデルを用いてローリングロボットのトラクションを推定できることです。
オンライントラクション推定に基づくトレーニングパイプラインは,他の手法よりもデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-03-22T22:02:03Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。