論文の概要: Predicting Topological Maps for Visual Navigation in Unexplored
Environments
- arxiv url: http://arxiv.org/abs/2211.12649v1
- Date: Wed, 23 Nov 2022 00:53:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 16:00:00.345413
- Title: Predicting Topological Maps for Visual Navigation in Unexplored
Environments
- Title(参考訳): 未探索環境における視覚ナビゲーションのためのトポロジマップの予測
- Authors: Huangying Zhan, Hamid Rezatofighi, Ian Reid
- Abstract要約: 本研究では,未探索環境における自律探査とナビゲーションのためのロボット学習システムを提案する。
本手法のコアとなるのは,目標に基づく視覚ナビゲーションを支援するために,確率的レイアウトグラフを構築し,予測し,使用するプロセスである。
我々はMatterport3Dで我々のフレームワークをテストし、目に見えない環境でより成功し、効率的なナビゲーションを示す。
- 参考スコア(独自算出の注目度): 28.30219170556201
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a robotic learning system for autonomous exploration and
navigation in unexplored environments. We are motivated by the idea that even
an unseen environment may be familiar from previous experiences in similar
environments. The core of our method, therefore, is a process for building,
predicting, and using probabilistic layout graphs for assisting goal-based
visual navigation. We describe a navigation system that uses the layout
predictions to satisfy high-level goals (e.g. "go to the kitchen") more rapidly
and accurately than the prior art. Our proposed navigation framework comprises
three stages: (1) Perception and Mapping: building a multi-level 3D scene
graph; (2) Prediction: predicting probabilistic 3D scene graph for the
unexplored environment; (3) Navigation: assisting navigation with the graphs.
We test our framework in Matterport3D and show more success and efficient
navigation in unseen environments.
- Abstract(参考訳): 本研究では,未探索環境における自律探索とナビゲーションのためのロボット学習システムを提案する。
私たちは、目に見えない環境でさえ、同様の環境での経験から慣れているかもしれないという考えに動機づけられている。
そこで本手法のコアとなるのは,目標に基づく視覚ナビゲーションを支援するための確率的レイアウトグラフの構築,予測,利用である。
レイアウト予測を用いて高水準の目標(例えば「キッチンに行く」など)を満たすナビゲーションシステムについて,先行技術よりも迅速かつ正確に記述する。
提案するナビゲーションフレームワークは,(1)知覚とマッピング:多レベル3dシーングラフの構築,(2)予測:未探索環境における確率的3dシーングラフの予測,(3)ナビゲーション:グラフによるナビゲーション支援,の3段階からなる。
我々はMatterport3Dで我々のフレームワークをテストし、目に見えない環境でより成功し、効率的なナビゲーションを示す。
関連論文リスト
- Aligning Knowledge Graph with Visual Perception for Object-goal Navigation [16.32780793344835]
オブジェクトゴールナビゲーションのための視覚知覚付きアライニング知識グラフ(AKGVP)を提案する。
提案手法では,階層型シーンアーキテクチャの連続的モデリングを導入し,自然言語記述と視覚知覚との整合性を確保するために,視覚-言語事前学習を活用する。
継続的知識グラフアーキテクチャとマルチモーダル機能アライメントの統合により、ナビゲータは目覚ましいゼロショットナビゲーション能力を持つ。
論文 参考訳(メタデータ) (2024-02-29T06:31:18Z) - Object Goal Navigation with Recursive Implicit Maps [92.6347010295396]
対象目標ナビゲーションのための暗黙的な空間マップを提案する。
提案手法は, 挑戦的なMP3Dデータセット上での技量を著しく上回る。
我々は、実際のロボットにモデルをデプロイし、実際のシーンでオブジェクトゴールナビゲーションの結果を奨励する。
論文 参考訳(メタデータ) (2023-08-10T14:21:33Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - Lifelong Topological Visual Navigation [16.41858724205884]
本稿では,生涯ナビゲーション性能を時間とともに向上させるグラフ更新戦略を用いた学習型ビジュアルナビゲーション手法を提案する。
画像に基づくトポロジグラフを構築するためのサンプリングベースの計画アルゴリズムから着想を得た結果,スペーサーグラフはベースライン法に比べてナビゲーション性能が高い。
固定的なトレーニング環境から学習するコントローラとは異なり、ロボットが配置される実環境から比較的小さなデータセットを使ってモデルを微調整できることが示される。
論文 参考訳(メタデータ) (2021-10-16T06:16:14Z) - SOON: Scenario Oriented Object Navigation with Graph-based Exploration [102.74649829684617]
人間のように3Dエンボディ環境のどこからでも言語ガイドされたターゲットに向かって移動する能力は、インテリジェントロボットの「聖杯」目標の1つです。
ほとんどのビジュアルナビゲーションベンチマークは、ステップバイステップの詳細な命令セットに導かれ、固定された出発点から目標に向かって移動することに焦点を当てている。
このアプローチは、人間だけが物体とその周囲がどのように見えるかを説明する現実世界の問題から逸脱し、ロボットにどこからでも航行を依頼する。
論文 参考訳(メタデータ) (2021-03-31T15:01:04Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。