論文の概要: Implicit Obstacle Map-driven Indoor Navigation Model for Robust Obstacle
Avoidance
- arxiv url: http://arxiv.org/abs/2308.12845v1
- Date: Thu, 24 Aug 2023 15:10:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 13:36:46.216850
- Title: Implicit Obstacle Map-driven Indoor Navigation Model for Robust Obstacle
Avoidance
- Title(参考訳): 暗黙的障害物マップ駆動屋内ナビゲーションモデルによるロバスト障害物回避
- Authors: Wei Xie, Haobo Jiang, Shuo Gu and Jin Xie
- Abstract要約: 頑健な障害物回避のための暗黙的障害物マップ駆動屋内ナビゲーションフレームワークを提案する。
非ローカルなメモリアグリゲーションモジュールは、非ローカルネットワークを活用して、ターゲットセマンティクスとターゲットの向きの手がかりとの本質的な関係をモデル化するように設計されている。
- 参考スコア(独自算出の注目度): 16.57243997206754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust obstacle avoidance is one of the critical steps for successful
goal-driven indoor navigation tasks.Due to the obstacle missing in the visual
image and the possible missed detection issue, visual image-based obstacle
avoidance techniques still suffer from unsatisfactory robustness. To mitigate
it, in this paper, we propose a novel implicit obstacle map-driven indoor
navigation framework for robust obstacle avoidance, where an implicit obstacle
map is learned based on the historical trial-and-error experience rather than
the visual image. In order to further improve the navigation efficiency, a
non-local target memory aggregation module is designed to leverage a non-local
network to model the intrinsic relationship between the target semantic and the
target orientation clues during the navigation process so as to mine the most
target-correlated object clues for the navigation decision. Extensive
experimental results on AI2-Thor and RoboTHOR benchmarks verify the excellent
obstacle avoidance and navigation efficiency of our proposed method. The core
source code is available at https://github.com/xwaiyy123/object-navigation.
- Abstract(参考訳): 目標駆動型屋内ナビゲーションタスクを成功させる上で,ロバスト障害物回避は重要なステップのひとつであり,視覚画像に障害が欠落し,検出に失敗する可能性があるため,視覚イメージに基づく障害物回避技術はまだ不満足な堅牢性に悩まされている。
そこで本稿では,視覚的イメージではなく,歴史的試行錯誤経験に基づいて暗黙的障害物マップを学習する,頑健な障害物回避のための新しい暗黙的障害物マップ駆動屋内ナビゲーションフレームワークを提案する。
ナビゲーション効率をさらに向上するために、非ローカルなメモリ集約モジュールが非ローカルネットワークを活用して、ナビゲーションプロセス中のターゲットセマンティクスとターゲット指向ヒントの本質的な関係をモデル化し、ナビゲーション決定の最もターゲット関連のあるオブジェクトヒントをマイニングするように設計されている。
ai2-thorとrobothorベンチマークの広範な実験結果から,提案手法の優れた障害物回避とナビゲーション効率を検証できた。
コアソースコードはhttps://github.com/xwaiy123/object-navigationで入手できる。
関連論文リスト
- Improving Collision-Free Success Rate For Object Goal Visual Navigation Via Two-Stage Training With Collision Prediction [0.0]
衝突のない成功は、航法モデルが対象物に向かって衝突のない経路を見つける能力を評価するために導入された。
既存の航法モデルの衝突のない成功率を改善するために,衝突予測を伴う2段階の訓練手法を提案する。
論文 参考訳(メタデータ) (2025-02-19T07:33:10Z) - Two-Stage Depth Enhanced Learning with Obstacle Map For Object Navigation [11.667940255053582]
本稿では,RGBとトレーニングシーンの深度情報を用いて特徴抽出器の事前訓練を行い,ナビゲーション効率を向上する。
提案手法をAI2-ThorとRobothorで評価し,成功率と航法効率において最先端(SOTA)法を著しく上回っていることを示した。
論文 参考訳(メタデータ) (2024-06-20T08:35:10Z) - Instance-aware Exploration-Verification-Exploitation for Instance ImageGoal Navigation [88.84058353659107]
インスタンスイメージゴールナビゲーション(IIN)は、探索されていない環境でゴールイメージによって表現された指定されたオブジェクトにナビゲートすることを目的としている。
本稿では、インスタンスレベルの画像目標ナビゲーションのための新しいモジュール型ナビゲーションフレームワーク、Exploration-Verification-Exploitation (IEVE)を提案する。
我々の手法は従来の最先端の手法を超越し、古典的セグメンテーションモデル(0.684対0.561成功)またはロバストモデル(0.702対0.561成功)を用いる。
論文 参考訳(メタデータ) (2024-02-25T07:59:10Z) - How To Not Train Your Dragon: Training-free Embodied Object Goal
Navigation with Semantic Frontiers [94.46825166907831]
Embodied AIにおけるオブジェクトゴールナビゲーション問題に対処するためのトレーニング不要のソリューションを提案する。
本手法は,古典的な視覚的同時ローカライゼーションとマッピング(V-SLAM)フレームワークに基づく,構造化されたシーン表現を構築する。
本手法は,言語先行情報とシーン統計に基づいてシーングラフのセマンティクスを伝搬し,幾何学的フロンティアに意味知識を導入する。
論文 参考訳(メタデータ) (2023-05-26T13:38:33Z) - Perspective Aware Road Obstacle Detection [104.57322421897769]
道路障害物検出技術は,車間距離が大きくなるにつれて障害物の見かけの規模が減少するという事実を無視することを示す。
画像位置毎に仮想物体の見かけの大きさを符号化したスケールマップを演算することでこれを活用できる。
次に、この視点マップを利用して、遠近法に対応する大きさの道路合成物体に注入することで、トレーニングデータを生成する。
論文 参考訳(メタデータ) (2022-10-04T17:48:42Z) - Detect and Approach: Close-Range Navigation Support for People with
Blindness and Low Vision [13.478275180547925]
視力と視力の低い人(pBLV)は、最終目的地の特定や、不慣れな環境で特定の対象を狙う際に重大な課題を経験する。
本研究では,ユーザの関心対象物へのアプローチを,不慣れな環境下で効果的かつ効率的に行うためのリアルタイムガイダンスを提供する,新しいウェアラブルナビゲーションソリューションを開発した。
論文 参考訳(メタデータ) (2022-08-17T18:38:20Z) - Stubborn: A Strong Baseline for Indoor Object Navigation [11.947727956369874]
本稿では,Habitat Challengeタスクにおいて,これまで公開されたメソッドのパフォーマンスを上回る,強力なベースラインを提示する。
提案手法は, 先進的な調査, 不正確な物体識別, 不正確な地図構築によるエージェントの捕捉といった, 先行技術の失敗モードから動機付けられている。
論文 参考訳(メタデータ) (2022-03-14T17:55:00Z) - Find a Way Forward: a Language-Guided Semantic Map Navigator [53.69229615952205]
本稿では,新たな視点で言語誘導ナビゲーションの問題に対処する。
ロボットが自然言語の指示を実行し、地図観測に基づいて目標位置へ移動できるようにする。
提案手法は特に長距離ナビゲーションの場合において顕著な性能向上をもたらす。
論文 参考訳(メタデータ) (2022-03-07T07:40:33Z) - Explore before Moving: A Feasible Path Estimation and Memory Recalling
Framework for Embodied Navigation [117.26891277593205]
ナビゲーションに焦点をあて,経験や常識に欠ける既存のナビゲーションアルゴリズムの問題を解決する。
移動前に2回思考する能力に触発されて、不慣れな場面で目標を追求する実現可能な経路を考案し、パス推定とメモリリコールフレームワークと呼ばれる経路計画手法を提案する。
EmbodiedQAナビゲーションタスクにおけるPEMRの強力な実験結果を示す。
論文 参考訳(メタデータ) (2021-10-16T13:30:55Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。