論文の概要: GroundLoc: Efficient Large-Scale Outdoor LiDAR-Only Localization
- arxiv url: http://arxiv.org/abs/2510.24623v1
- Date: Tue, 28 Oct 2025 16:51:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 17:50:20.195608
- Title: GroundLoc: Efficient Large-Scale Outdoor LiDAR-Only Localization
- Title(参考訳): GroundLoc: 大規模LiDAR専用ローカライゼーションの効率化
- Authors: Nicolai Steinke, Daniel Goehring,
- Abstract要約: 大規模屋外環境における移動ロボットのローカライズを目的とした,LiDARのみのローカライズパイプラインであるGroundLocを紹介する。
GroundLocは、認識された地上領域に焦点を当てたBird's-Eye View (BEV)イメージプロジェクションを採用している。
このシステムは様々なセンサーモデルをサポートし、Velodyne HDL-64E、Ouster OS2 128、Aeva Aeries II、Livox Aviaセンサーで評価された。
- 参考スコア(独自算出の注目度): 0.9668407688201359
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this letter, we introduce GroundLoc, a LiDAR-only localization pipeline designed to localize a mobile robot in large-scale outdoor environments using prior maps. GroundLoc employs a Bird's-Eye View (BEV) image projection focusing on the perceived ground area and utilizes the place recognition network R2D2, or alternatively, the non-learning approach Scale-Invariant Feature Transform (SIFT), to identify and select keypoints for BEV image map registration. Our results demonstrate that GroundLoc outperforms state-of-the-art methods on the SemanticKITTI and HeLiPR datasets across various sensors. In the multi-session localization evaluation, GroundLoc reaches an Average Trajectory Error (ATE) well below 50 cm on all Ouster OS2 128 sequences while meeting online runtime requirements. The system supports various sensor models, as evidenced by evaluations conducted with Velodyne HDL-64E, Ouster OS2 128, Aeva Aeries II, and Livox Avia sensors. The prior maps are stored as 2D raster image maps, which can be created from a single drive and require only 4 MB of storage per square kilometer. The source code is available at https://github.com/dcmlr/groundloc.
- Abstract(参考訳): 本稿では,LiDARのみのローカライズパイプラインであるGroundLocについて紹介する。
GroundLocは、認識された地上領域に着目したBird's-Eye View(BEV)イメージプロジェクションを採用し、位置認識ネットワークR2D2、または非学習アプローチのスケール・不変特徴変換(SIFT)を利用して、BEVイメージマップ登録のためのキーポイントを特定し、選択する。
以上の結果から,GlomLocはSemanticKITTIおよびHeLiPRデータセットにおいて,各種センサにおける最先端の手法よりも優れていた。
マルチセッションローカライゼーション評価では,オンラインランタイム要件を満たしながら,Ouster OS2 128のすべてのシーケンスに対して,平均軌道誤差(ATE)が50cm以下に達している。
このシステムは様々なセンサーモデルをサポートし、Velodyne HDL-64E、Ouster OS2 128、Aeva Aeries II、Livox Aviaセンサーで評価された。
以前のマップは2Dラスター画像マップとして格納され、単一のドライブから作成でき、平方キロメートルあたり4MBのストレージしか必要としない。
ソースコードはhttps://github.com/dcmlr/groundloc.comで入手できる。
関連論文リスト
- Are Multimodal Large Language Models Ready for Omnidirectional Spatial Reasoning? [66.88619941063048]
MLLM(Multimodal large language model)は全方向空間推論に対応しているのか?
OSR-Benchはこの設定のために特別に設計された最初のベンチマークである。
高忠実度パノラマ屋内シーンマップには、153,000以上の多様な質問応答ペアが含まれている。
GPT-4o, Gemini 1.5 Proを含む8つの最先端MLLMを評価し, ゼロショット設定で主要なオープンソースモデルを評価した。
論文 参考訳(メタデータ) (2025-05-17T08:48:40Z) - OSMLoc: Single Image-Based Visual Localization in OpenStreetMap with Fused Geometric and Semantic Guidance [20.043977909592115]
OSMLocは、OpenStreetMapマップに対するファーストパーソナライズされたイメージに基づく、脳にインスパイアされた視覚的ローカライゼーションアプローチである。
意味的および幾何学的ガイダンスを統合し、精度、堅牢性、一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-11-13T14:59:00Z) - Pathfinder for Low-altitude Aircraft with Binary Neural Network [28.33728489506935]
以前のグローバルトポロジマップ(例えば、OpenStreetMap, OSM)は、地上移動ロボットによる自律的マッピングの性能を高めることができる。
本稿では,低高度航空機が搭載する空中センサを用いたOSMメーカを提案する。
論文 参考訳(メタデータ) (2024-09-13T13:37:33Z) - U-BEV: Height-aware Bird's-Eye-View Segmentation and Neural Map-based Relocalization [81.76044207714637]
GPS受信が不十分な場合やセンサベースのローカライゼーションが失敗する場合、インテリジェントな車両には再ローカライゼーションが不可欠である。
Bird's-Eye-View (BEV)セグメンテーションの最近の進歩は、局所的な景観の正確な推定を可能にする。
本稿では,U-NetにインスパイアされたアーキテクチャであるU-BEVについて述べる。
論文 参考訳(メタデータ) (2023-10-20T18:57:38Z) - HPointLoc: Point-based Indoor Place Recognition using Synthetic RGB-D
Images [58.720142291102135]
本稿では,屋内環境における視覚的位置認識能力の探索を目的とした,HPointLocという新しいデータセットを提案する。
データセットは人気のあるHabitatシミュレータに基づいており、独自のセンサーデータとオープンデータセットの両方を使用して屋内シーンを生成することができる。
論文 参考訳(メタデータ) (2022-12-30T12:20:56Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。