論文の概要: Lifelong Topological Visual Navigation
- arxiv url: http://arxiv.org/abs/2110.08488v1
- Date: Sat, 16 Oct 2021 06:16:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 15:08:12.106839
- Title: Lifelong Topological Visual Navigation
- Title(参考訳): 生涯のトポロジカルビジュアルナビゲーション
- Authors: Rey Reza Wiyatno, Anqi Xu, and Liam Paull
- Abstract要約: 本稿では,生涯ナビゲーション性能を時間とともに向上させるグラフ更新戦略を用いた学習型ビジュアルナビゲーション手法を提案する。
画像に基づくトポロジグラフを構築するためのサンプリングベースの計画アルゴリズムから着想を得た結果,スペーサーグラフはベースライン法に比べてナビゲーション性能が高い。
固定的なトレーニング環境から学習するコントローラとは異なり、ロボットが配置される実環境から比較的小さなデータセットを使ってモデルを微調整できることが示される。
- 参考スコア(独自算出の注目度): 16.41858724205884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability for a robot to navigate with only the use of vision is appealing
due to its simplicity. Traditional vision-based navigation approaches required
a prior map-building step that was arduous and prone to failure, or could only
exactly follow previously executed trajectories. Newer learning-based visual
navigation techniques reduce the reliance on a map and instead directly learn
policies from image inputs for navigation. There are currently two prevalent
paradigms: end-to-end approaches forego the explicit map representation
entirely, and topological approaches which still preserve some loose
connectivity of the space. However, while end-to-end methods tend to struggle
in long-distance navigation tasks, topological map-based solutions are prone to
failure due to spurious edges in the graph. In this work, we propose a
learning-based topological visual navigation method with graph update
strategies that improve lifelong navigation performance over time. We take
inspiration from sampling-based planning algorithms to build image-based
topological graphs, resulting in sparser graphs yet with higher navigation
performance compared to baseline methods. Also, unlike controllers that learn
from fixed training environments, we show that our model can be finetuned using
a relatively small dataset from the real-world environment where the robot is
deployed. We further assess performance of our system in real-world
deployments.
- Abstract(参考訳): ロボットが視覚だけを使ってナビゲートする能力は、その単純さから魅力的である。
従来の視覚に基づくナビゲーションアプローチでは、事前の地図作成ステップが必要で、失敗しがちだった。
新しい学習ベースのビジュアルナビゲーション技術は、地図への依存を減らし、ナビゲーションのための画像入力から直接ポリシーを学ぶ。
現在、2つの主要なパラダイムがある: 明示的な写像表現を完全に前向きにするエンドツーエンドのアプローチと、空間のゆるい接続を維持するトポロジカルアプローチである。
しかしながら、エンドツーエンドの手法は長距離ナビゲーションタスクでは苦労する傾向にあるが、トポロジカルマップベースのソリューションはグラフの急激なエッジによって失敗しがちである。
本研究では,長年のナビゲーション性能を向上させるグラフ更新戦略を用いた,学習に基づくトポロジカルなビジュアルナビゲーション手法を提案する。
画像に基づくトポロジグラフを構築するためのサンプリングベースの計画アルゴリズムから着想を得た結果,スペーサーグラフはベースライン法に比べてナビゲーション性能が高い。
また、固定トレーニング環境から学習するコントローラとは異なり、ロボットが配置される実環境からの比較的小さなデータセットを用いて、モデルを微調整できることを示す。
実環境におけるシステムの性能をさらに評価する。
関連論文リスト
- NavTopo: Leveraging Topological Maps For Autonomous Navigation Of a Mobile Robot [1.0550841723235613]
トポロジマップと2段階の経路計画に基づく完全なナビゲーションパイプラインを提案する。
パイプラインは、入力ポイントクラウドのニューラルネットワーク記述子と2Dプロジェクションをマッチングすることで、グラフにローカライズする。
提案手法は,大規模な室内光相対論的シミュレーション環境でテストし,一般的な計量マッピング手法であるRTAB-MAPに基づく計量地図に基づく手法と比較する。
論文 参考訳(メタデータ) (2024-10-15T10:54:49Z) - PRET: Planning with Directed Fidelity Trajectory for Vision and Language Navigation [30.710806048991923]
視覚と言語ナビゲーションは、エージェントが自然言語の指示に従ってナビゲートする必要があるタスクである。
近年の手法では、各ステップで構築されたトポロジーマップのサブゴールを予測し、長期的な行動計画を可能にする。
本稿では,指示と指向性軌道のアライメントを考慮し,ナビゲーション計画を容易にする方法を提案する。
論文 参考訳(メタデータ) (2024-07-16T08:22:18Z) - Interactive Semantic Map Representation for Skill-based Visual Object
Navigation [43.71312386938849]
本稿では,室内環境との相互作用にともなうシーンセマンティックマップの表現について紹介する。
我々はこの表現をSkillTronと呼ばれる本格的なナビゲーション手法に実装した。
提案手法により,ロボット探索の中間目標とオブジェクトナビゲーションの最終目標の両方を形成できる。
論文 参考訳(メタデータ) (2023-11-07T16:30:12Z) - Object Goal Navigation with Recursive Implicit Maps [92.6347010295396]
対象目標ナビゲーションのための暗黙的な空間マップを提案する。
提案手法は, 挑戦的なMP3Dデータセット上での技量を著しく上回る。
我々は、実際のロボットにモデルをデプロイし、実際のシーンでオブジェクトゴールナビゲーションの結果を奨励する。
論文 参考訳(メタデータ) (2023-08-10T14:21:33Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - How To Not Train Your Dragon: Training-free Embodied Object Goal
Navigation with Semantic Frontiers [94.46825166907831]
Embodied AIにおけるオブジェクトゴールナビゲーション問題に対処するためのトレーニング不要のソリューションを提案する。
本手法は,古典的な視覚的同時ローカライゼーションとマッピング(V-SLAM)フレームワークに基づく,構造化されたシーン表現を構築する。
本手法は,言語先行情報とシーン統計に基づいてシーングラフのセマンティクスを伝搬し,幾何学的フロンティアに意味知識を導入する。
論文 参考訳(メタデータ) (2023-05-26T13:38:33Z) - Find a Way Forward: a Language-Guided Semantic Map Navigator [53.69229615952205]
本稿では,新たな視点で言語誘導ナビゲーションの問題に対処する。
ロボットが自然言語の指示を実行し、地図観測に基づいて目標位置へ移動できるようにする。
提案手法は特に長距離ナビゲーションの場合において顕著な性能向上をもたらす。
論文 参考訳(メタデータ) (2022-03-07T07:40:33Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - Complex Terrain Navigation via Model Error Prediction [5.937673383513695]
私たちは、オンラインのアプローチでトレーニングを行い、その結果、シミュレーションと現実世界にまたがる、50分間のトレーニングデータを使用して、ナビゲーションポリシーを成功させました。
学習に基づくナビゲーションシステムは,Clearpath Huskyが様々な地形を航行する様子を実演する,効率的な短期プランナーである。
論文 参考訳(メタデータ) (2021-11-18T15:55:04Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。