論文の概要: Look to Locate: Vision-Based Multisensory Navigation with 3-D Digital Maps for GNSS-Challenged Environments
- arxiv url: http://arxiv.org/abs/2506.19827v1
- Date: Tue, 24 Jun 2025 17:44:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.754585
- Title: Look to Locate: Vision-Based Multisensory Navigation with 3-D Digital Maps for GNSS-Challenged Environments
- Title(参考訳): Look to Locate: GNSS-Challenged Environmentのための3次元ディジタルマップを用いた視覚型マルチセンサーナビゲーション
- Authors: Ola Elmaghraby, Eslam Mounier, Paulo Ricardo Marques de Araujo, Aboelmagd Noureldin,
- Abstract要約: 本稿では, 単眼深度推定, セマンティックフィルタリング, 視覚マップ登録を統合した, 費用対効果の高いマルチセンサナビゲーションシステムを提案する。
実世界の屋内および屋外の運転シナリオにおいて,提案システムは室内で92%,屋外で80%以上の精度を達成した。
- 参考スコア(独自算出の注目度): 6.85474615630103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In Global Navigation Satellite System (GNSS)-denied environments such as indoor parking structures or dense urban canyons, achieving accurate and robust vehicle positioning remains a significant challenge. This paper proposes a cost-effective, vision-based multi-sensor navigation system that integrates monocular depth estimation, semantic filtering, and visual map registration (VMR) with 3-D digital maps. Extensive testing in real-world indoor and outdoor driving scenarios demonstrates the effectiveness of the proposed system, achieving sub-meter accuracy of 92% indoors and more than 80% outdoors, with consistent horizontal positioning and heading average root mean-square errors of approximately 0.98 m and 1.25 {\deg}, respectively. Compared to the baselines examined, the proposed solution significantly reduced drift and improved robustness under various conditions, achieving positioning accuracy improvements of approximately 88% on average. This work highlights the potential of cost-effective monocular vision systems combined with 3D maps for scalable, GNSS-independent navigation in land vehicles.
- Abstract(参考訳): 地球航法衛星システム(GNSS)では、屋内の駐車場構造や密集した都市キャニオンのような環境において、正確で堅牢な車両の位置決めを実現することが大きな課題である。
本稿では,単眼深度推定,セマンティックフィルタリング,視覚地図登録(VMR)を3次元ディジタルマップと統合した,費用対効果の高いマルチセンサナビゲーションシステムを提案する。
実世界の屋内および屋外の運転シナリオにおける過度なテストは、提案システムの有効性を示し、室内での92%の精度と屋外での80%以上の精度を実現し、一貫した水平位置決めと平均根平均平方誤差は、それぞれ約0.98 mと1.25 {\deg}である。
ベースラインと比較すると, 提案手法はドリフトを著しく低減し, 各種条件下でのロバスト性を向上し, 位置決め精度を平均88%向上させた。
この研究は、陸上車両における費用対効果の高い単眼視システムと、スケーラブルでGNSSに依存しないナビゲーションのための3Dマップの組み合わせの可能性を強調している。
関連論文リスト
- NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - Camera-Only Bird's Eye View Perception: A Neural Approach to LiDAR-Free Environmental Mapping for Autonomous Vehicles [0.0]
本稿では,Lft-Splat-Shootアーキテクチャを拡張して,Bird's Eye View (BEV)マップを生成するカメラのみの認識フレームワークを提案する。
本手法は, YOLOv11に基づく物体検出とDepthAnythingV2単眼深度推定とを組み合わせて, 総合的な360度映像理解を実現する。
論文 参考訳(メタデータ) (2025-05-09T15:13:04Z) - GS-GVINS: A Tightly-integrated GNSS-Visual-Inertial Navigation System Augmented by 3D Gaussian Splatting [1.118708572189902]
3D Splatting (3DGS) は3次元地図再構成と視覚SLAMの領域で注目されている。
3DGSにより強化された密に統合されたプルーニング・ビジュアル・慣性ナビゲーションシステムであるGS-GVINSを提案する。
このシステムは3次元ガウス写像を大規模屋外環境における連続的な微分可能表現として利用し,構築された3次元ガウス写像によるナビゲーション性能を向上させる。
論文 参考訳(メタデータ) (2025-02-16T03:29:32Z) - RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - Angle Robustness Unmanned Aerial Vehicle Navigation in GNSS-Denied
Scenarios [66.05091704671503]
本稿では、ポイントツーポイントナビゲーションタスクにおける飛行偏差に対処する新しい角度ナビゲーションパラダイムを提案する。
また、Adaptive Feature Enhance Module、Cross-knowledge Attention-guided Module、Robust Task-oriented Head Moduleを含むモデルを提案する。
論文 参考訳(メタデータ) (2024-02-04T08:41:20Z) - The Surprising Effectiveness of Visual Odometry Techniques for Embodied
PointGoal Navigation [100.08270721713149]
PointGoalナビゲーションは、シミュレーションされたEmbodied AI環境で導入された。
最近の進歩は、ほぼ完璧な精度でPointGoalナビゲーションタスクを解く(99.6%の成功)
本研究では,ナビゲーションポリシにビジュアルオドメトリ技術を統合することで,人気の高いHabitat PointNavベンチマークの最先端性を大きなマージンで向上することを示す。
論文 参考訳(メタデータ) (2021-08-26T02:12:49Z) - Relatively Lazy: Indoor-Outdoor Navigation Using Vision and GNSS [14.39926267531322]
相対ナビゲーションは、困難な環境での自律的な視覚ベースのパスに対する堅牢で効率的なソリューションである。
遅延マッピングと経路追跡誤差が必要とされるまで遅延推定は絶対状態を推定する必要がないことを示す。
自律走行経路繰り返し3.5kmのジョイント屋内ドア環境における実験を通して,実ロボットのアプローチを検証する。
論文 参考訳(メタデータ) (2021-01-13T14:43:45Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。