論文の概要: L2RSI: Cross-view LiDAR-based Place Recognition for Large-scale Urban Scenes via Remote Sensing Imagery
- arxiv url: http://arxiv.org/abs/2503.11245v1
- Date: Fri, 14 Mar 2025 09:52:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:07:14.240658
- Title: L2RSI: Cross-view LiDAR-based Place Recognition for Large-scale Urban Scenes via Remote Sensing Imagery
- Title(参考訳): L2RSI:リモートセンシング画像による大規模都市景観のクロスビューLiDARによる位置認識
- Authors: Ziwei Shi, Xiaoran Zhang, Yan Xia, Yu Zang, Siqi Shen, Cheng Wang,
- Abstract要約: 従来の3Dマップのコストと時間を要するLiDARによる位置認識の課題に対処する。
高分解能リモートセンシング画像を用いたLiDAR位置認識のための新しい手法L2RSIを提案する。
- 参考スコア(独自算出の注目度): 14.857551317647394
- License:
- Abstract: We tackle the challenge of LiDAR-based place recognition, which traditionally depends on costly and time-consuming prior 3D maps. To overcome this, we first construct XA-L&RSI dataset, which encompasses approximately $110,000$ remote sensing submaps and $13,000$ LiDAR point cloud submaps captured in urban scenes, and propose a novel method, L2RSI, for cross-view LiDAR place recognition using high-resolution Remote Sensing Imagery. This approach enables large-scale localization capabilities at a reduced cost by leveraging readily available overhead images as map proxies. L2RSI addresses the dual challenges of cross-view and cross-modal place recognition by learning feature alignment between point cloud submaps and remote sensing submaps in the semantic domain. Additionally, we introduce a novel probability propagation method based on a dynamic Gaussian mixture model to refine position predictions, effectively leveraging temporal and spatial information. This approach enables large-scale retrieval and cross-scene generalization without fine-tuning. Extensive experiments on XA-L&RSI demonstrate that, within a $100km^2$ retrieval range, L2RSI accurately localizes $95.08\%$ of point cloud submaps within a $30m$ radius for top-$1$ retrieved location. We provide a video to more vividly display the place recognition results of L2RSI at https://shizw695.github.io/L2RSI/.
- Abstract(参考訳): 従来の3Dマップのコストと時間を要するLiDARによる位置認識の課題に対処する。
そこで我々はまず,都市部で捉えた約110,000ドルのリモートセンシングサブマップと13,000ドルのLiDARポイントクラウドサブマップを含むXA-L&RSIデータセットを構築し,高解像度のリモートセンシング画像を用いたクロスビューLiDAR位置認識のための新しい手法L2RSIを提案する。
このアプローチは、地図プロキシとして容易に利用可能なオーバーヘッド画像を活用することにより、大規模ローカライズ機能を低コストで実現している。
L2RSIは、ポイントクラウドサブマップとセマンティックドメイン内のリモートセンシングサブマップ間の特徴アライメントを学習することで、クロスビューとクロスモーダルな位置認識という2つの課題に対処する。
さらに、動的ガウス混合モデルに基づく新しい確率伝搬法を導入し、位置予測を洗練し、時間的・空間的な情報を効果的に活用する。
このアプローチは、微調整なしで大規模な検索とクロスシーンの一般化を可能にする。
XA-L&RSIの大規模な実験は、100km^2$検索範囲内において、L2RSIが正確に9,5.08\%の点雲のサブマップを、トップ1$検索された位置に対して半径30m$の範囲内でローカライズすることを実証している。
L2RSIの場所認識結果を、https://shizw695.github.io/L2RSI/でより鮮明に表示するビデオを提供する。
関連論文リスト
- SpotNet: An Image Centric, Lidar Anchored Approach To Long Range Perception [3.627834388176496]
SpotNetは高速で単一ステージのイメージ中心だが、長距離3Dオブジェクト検出のためのLiDARアンロックアプローチである。
我々は,LiDAR/画像センサフュージョンへのアプローチと2次元および3次元検出タスクの連成学習が組み合わさって,LiDARの精度が低い3次元物体検出に繋がることを示した。
論文 参考訳(メタデータ) (2024-05-24T17:25:48Z) - Boosting 3-DoF Ground-to-Satellite Camera Localization Accuracy via
Geometry-Guided Cross-View Transformer [66.82008165644892]
地上レベルの画像と一致/検索衛星画像との相対的な回転と変換を推定することにより、地上カメラの位置と方向の精度を向上させる手法を提案する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-16T11:52:27Z) - (LC)$^2$: LiDAR-Camera Loop Constraints For Cross-Modal Place
Recognition [0.9449650062296824]
本稿では,先行点クラウドマップを使わずにLiDARローカライゼーションを実現するために, (LC)$2$と呼ばれる新しいクロスマッチング手法を提案する。
ネットワークは、異なる画像とレンジ画像からローカライズ記述子を抽出するために訓練される。
我々は、LiDARベースのナビゲーションシステムが画像データベースから最適化され、その逆も可能であることを実証する。
論文 参考訳(メタデータ) (2023-04-17T23:20:16Z) - HPointLoc: Point-based Indoor Place Recognition using Synthetic RGB-D
Images [58.720142291102135]
本稿では,屋内環境における視覚的位置認識能力の探索を目的とした,HPointLocという新しいデータセットを提案する。
データセットは人気のあるHabitatシミュレータに基づいており、独自のセンサーデータとオープンデータセットの両方を使用して屋内シーンを生成することができる。
論文 参考訳(メタデータ) (2022-12-30T12:20:56Z) - Satellite Image Based Cross-view Localization for Autonomous Vehicle [59.72040418584396]
本稿では,市販の高精細衛星画像を使用可能な地図として利用することにより,良好な精度でクロスビュー車両のローカライゼーションを実現することができることを示す。
本手法はKITTIとFord Multi-AVの季節データセットを地上ビューとして,Google Mapsを衛星ビューとして検証した。
論文 参考訳(メタデータ) (2022-07-27T13:16:39Z) - Fully Sparse 3D Object Detection [57.05834683261658]
長距離LiDARオブジェクト検出のためのフルスパース3Dオブジェクト検出器(FSD)を構築した。
FSDは一般的なスパース・ボクセル・エンコーダと新しいスパース・インスタンス認識(SIR)モジュール上に構築されている。
SIRは、ポイントをインスタンスにグループ化することで、以前のポイントベースのメソッドでの待ち行列クエリを避ける。
論文 参考訳(メタデータ) (2022-07-20T17:01:33Z) - CroCo: Cross-Modal Contrastive learning for localization of Earth
Observation data [62.96337162094726]
地上のLiDAR点雲をリモートセンシング画像上にローカライズすることに興味がある。
本稿では,DEMと高分解能光学画像に基づいて学習を行うコントラスト学習手法を提案する。
ベストシナリオは、トップ1スコア0.71、トップ5スコア0.81を得る。
論文 参考訳(メタデータ) (2022-04-14T15:55:00Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。