論文の概要: FloNa: Floor Plan Guided Embodied Visual Navigation
- arxiv url: http://arxiv.org/abs/2412.18335v1
- Date: Tue, 24 Dec 2024 10:42:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:55:58.027912
- Title: FloNa: Floor Plan Guided Embodied Visual Navigation
- Title(参考訳): FloNa:フロアプランで視覚ナビゲーションをガイド
- Authors: Jiaxin Li, Weiqi Huang, Zan Wang, Wei Liang, Huijun Di, Feng Liu,
- Abstract要約: 人間は自然に不慣れな環境で移動するためのフロアプランに頼っている。
既存のビジュアルナビゲーション設定は、この貴重な事前知識を見落としている。
我々はフロアプランビジュアルナビゲーション(FloNa)を紹介し、フロアプランを具体化ビジュアルナビゲーションに組み込む最初の試みである。
- 参考スコア(独自算出の注目度): 17.872748053116137
- License:
- Abstract: Humans naturally rely on floor plans to navigate in unfamiliar environments, as they are readily available, reliable, and provide rich geometrical guidance. However, existing visual navigation settings overlook this valuable prior knowledge, leading to limited efficiency and accuracy. To eliminate this gap, we introduce a novel navigation task: Floor Plan Visual Navigation (FloNa), the first attempt to incorporate floor plan into embodied visual navigation. While the floor plan offers significant advantages, two key challenges emerge: (1) handling the spatial inconsistency between the floor plan and the actual scene layout for collision-free navigation, and (2) aligning observed images with the floor plan sketch despite their distinct modalities. To address these challenges, we propose FloDiff, a novel diffusion policy framework incorporating a localization module to facilitate alignment between the current observation and the floor plan. We further collect $20k$ navigation episodes across $117$ scenes in the iGibson simulator to support the training and evaluation. Extensive experiments demonstrate the effectiveness and efficiency of our framework in unfamiliar scenes using floor plan knowledge. Project website: https://gauleejx.github.io/flona/.
- Abstract(参考訳): 人間は自然に、不慣れな環境で移動するためのフロアプランを頼りにしており、容易に利用でき、信頼性があり、リッチな幾何学的ガイダンスを提供する。
しかし、既存のビジュアルナビゲーション設定はこの貴重な事前知識を見落とし、効率と精度が制限された。
フロアプランビジュアルナビゲーション(フロアプランビジュアルナビゲーション、FloNa)は、フロアプランを具体化したビジュアルナビゲーションに組み込む試みである。
フロアプランには大きな利点があるが,(1)衝突のないナビゲーションにおいて,フロアプランと実際のシーンレイアウトとの空間的不整合を取り扱うこと,(2)異なるモダリティにもかかわらず観察された画像をフロアプランスケッチと整合させること,の2つの大きな課題が浮かび上がっている。
これらの課題に対処するために,FloDiffを提案する。FloDiffは,現在の観測とフロアプランのアライメントを容易にするために,ローカライゼーションモジュールを組み込んだ新しい拡散政策フレームワークである。
さらに、トレーニングと評価をサポートするために、iGibsonシミュレータの117ドルのシーンで20kドルのナビゲーションエピソードを収集します。
フロアプランの知識を生かした不慣れな場面におけるフレームワークの有効性と効率の実証実験を行った。
プロジェクトWebサイト: https://gauleejx.github.io/flona/。
関連論文リスト
- TOP-Nav: Legged Navigation Integrating Terrain, Obstacle and Proprioception Estimation [5.484041860401147]
TOP-Navは、包括的パスプランナーとTerran認識、Obstacle回避、クローズループプロプライオセプションを統合した、新しい脚付きナビゲーションフレームワークである。
そこで,TOP-Navは,従来の知識の分布を超えた地形や乱れをロボットが扱えるように,オープンワールドナビゲーションを実現する。
論文 参考訳(メタデータ) (2024-04-23T17:42:45Z) - Aligning Knowledge Graph with Visual Perception for Object-goal Navigation [16.32780793344835]
オブジェクトゴールナビゲーションのための視覚知覚付きアライニング知識グラフ(AKGVP)を提案する。
提案手法では,階層型シーンアーキテクチャの連続的モデリングを導入し,自然言語記述と視覚知覚との整合性を確保するために,視覚-言語事前学習を活用する。
継続的知識グラフアーキテクチャとマルチモーダル機能アライメントの統合により、ナビゲータは目覚ましいゼロショットナビゲーション能力を持つ。
論文 参考訳(メタデータ) (2024-02-29T06:31:18Z) - How To Not Train Your Dragon: Training-free Embodied Object Goal
Navigation with Semantic Frontiers [94.46825166907831]
Embodied AIにおけるオブジェクトゴールナビゲーション問題に対処するためのトレーニング不要のソリューションを提案する。
本手法は,古典的な視覚的同時ローカライゼーションとマッピング(V-SLAM)フレームワークに基づく,構造化されたシーン表現を構築する。
本手法は,言語先行情報とシーン統計に基づいてシーングラフのセマンティクスを伝搬し,幾何学的フロンティアに意味知識を導入する。
論文 参考訳(メタデータ) (2023-05-26T13:38:33Z) - Predicting Topological Maps for Visual Navigation in Unexplored
Environments [28.30219170556201]
本研究では,未探索環境における自律探査とナビゲーションのためのロボット学習システムを提案する。
本手法のコアとなるのは,目標に基づく視覚ナビゲーションを支援するために,確率的レイアウトグラフを構築し,予測し,使用するプロセスである。
我々はMatterport3Dで我々のフレームワークをテストし、目に見えない環境でより成功し、効率的なナビゲーションを示す。
論文 参考訳(メタデータ) (2022-11-23T00:53:11Z) - Target-Driven Structured Transformer Planner for Vision-Language
Navigation [55.81329263674141]
本稿では,TD-STP(Target-Driven Structured Transformer Planner)を提案する。
具体的には,長期目標の明示的な推定を行うため,Imaginary Scene Tokenization機構を考案する。
さらに,調査室のレイアウトを構造的かつグローバルな計画のためのニューラルアテンションアーキテクチャにエレガントに組み込んだ構造化トランスフォーマープランナーを設計する。
論文 参考訳(メタデータ) (2022-07-19T06:46:21Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - Lifelong Topological Visual Navigation [16.41858724205884]
本稿では,生涯ナビゲーション性能を時間とともに向上させるグラフ更新戦略を用いた学習型ビジュアルナビゲーション手法を提案する。
画像に基づくトポロジグラフを構築するためのサンプリングベースの計画アルゴリズムから着想を得た結果,スペーサーグラフはベースライン法に比べてナビゲーション性能が高い。
固定的なトレーニング環境から学習するコントローラとは異なり、ロボットが配置される実環境から比較的小さなデータセットを使ってモデルを微調整できることが示される。
論文 参考訳(メタデータ) (2021-10-16T06:16:14Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - Structured Scene Memory for Vision-Language Navigation [155.63025602722712]
視覚言語ナビゲーション(VLN)のための重要なアーキテクチャを提案する。
ナビゲーション中に知覚を正確に記憶できるほど区画化されている。
また、環境内の視覚的および幾何学的な手がかりを捉え、取り除く、構造化されたシーン表現としても機能する。
論文 参考訳(メタデータ) (2021-03-05T03:41:00Z) - Plan2Vec: Unsupervised Representation Learning by Latent Plans [106.37274654231659]
Plan2vecは、強化学習にインスパイアされた教師なしの表現学習手法である。
Plan2vecは、近距離を用いて画像データセット上に重み付きグラフを構築し、その局所距離を、計画された経路上の経路積分を蒸留することによって、大域的な埋め込みに外挿する。
1つのシミュレーションと2つの実世界の画像データセットに対する Plan2vec の有効性を実証する。
論文 参考訳(メタデータ) (2020-05-07T17:52:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。