論文の概要: VOLoc: Visual Place Recognition by Querying Compressed Lidar Map
- arxiv url: http://arxiv.org/abs/2402.15961v1
- Date: Sun, 25 Feb 2024 02:51:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 16:13:18.598804
- Title: VOLoc: Visual Place Recognition by Querying Compressed Lidar Map
- Title(参考訳): VOLOC:圧縮ライダーマップ検索による視覚的位置認識
- Authors: Xudong Cai, Yongcai Wang, Zhe Huang, Yu Shao and Deying Li
- Abstract要約: VOLOCは、圧縮されたLidarマップをリアルタイムにキャプチャした画像シーケンスで検索する類似性を利用した視覚的位置認識手法である。
VOLOCは、Lidar-to-Lidarの位置認識よりも、ローエンドのモバイルカメラで圧縮されたLidarマップを利用するための新しいレコードを設定する。
- 参考スコア(独自算出の注目度): 6.28567000800207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The availability of city-scale Lidar maps enables the potential of city-scale
place recognition using mobile cameras. However, the city-scale Lidar maps
generally need to be compressed for storage efficiency, which increases the
difficulty of direct visual place recognition in compressed Lidar maps. This
paper proposes VOLoc, an accurate and efficient visual place recognition method
that exploits geometric similarity to directly query the compressed Lidar map
via the real-time captured image sequence. In the offline phase, VOLoc
compresses the Lidar maps using a \emph{Geometry-Preserving Compressor} (GPC),
in which the compression is reversible, a crucial requirement for the
downstream 6DoF pose estimation. In the online phase, VOLoc proposes an online
Geometric Recovery Module (GRM), which is composed of online Visual Odometry
(VO) and a point cloud optimization module, such that the local scene structure
around the camera is online recovered to build the \emph{Querying Point Cloud}
(QPC). Then the QPC is compressed by the same GPC, and is aggregated into a
global descriptor by an attention-based aggregation module, to query the
compressed Lidar map in the vector space. A transfer learning mechanism is also
proposed to improve the accuracy and the generality of the aggregation network.
Extensive evaluations show that VOLoc provides localization accuracy even
better than the Lidar-to-Lidar place recognition, setting up a new record for
utilizing the compressed Lidar map by low-end mobile cameras. The code are
publicly available at https://github.com/Master-cai/VOLoc.
- Abstract(参考訳): 都市規模のライダーマップが利用可能になると、モバイルカメラを用いた都市規模の場所認識が可能になる。
しかし,都市規模のLidarマップは保存効率を高めるために圧縮する必要があるため,圧縮されたLidarマップでは直接視覚的位置認識が困難になる。
本稿では,実時間撮像された画像列を介して圧縮lidarマップを直接照会するために,幾何学的類似性を利用した高精度かつ効率的な視覚位置認識手法であるvolocを提案する。
オフラインの段階では、VOLOCは、圧縮が可逆である<emph{Geometry-Preserving Compressor} (GPC) を用いてライダーマップを圧縮する。
オンラインフェーズでは、VOLOCはオンラインのビジュアルオドメトリー(VO)とポイントクラウド最適化モジュールで構成されるオンラインのジオメトリックリカバリモジュール(GRM)を提案しており、カメラを取り巻くローカルなシーン構造をオンラインに復元して、 \emph{Querying Point Cloud} (QPC)を構築する。
次に、QPCは同じGPCで圧縮され、アテンションベースの集約モジュールによってグローバルディスクリプタに集約され、圧縮されたLidarマップをベクトル空間でクエリする。
また,アグリゲーションネットワークの精度と汎用性を向上させるために,転送学習機構を提案する。
大規模な評価では、VOLOCはLidar-to-Lidarの位置認識よりもローエンドのモバイルカメラで圧縮されたLidarマップを利用するための新しい記録を樹立した。
コードはhttps://github.com/Master-cai/VOLOC.comで公開されている。
関連論文リスト
- Quadric Representations for LiDAR Odometry, Mapping and Localization [93.24140840537912]
現在のLiDARオードメトリ、マッピング、ローカライズ手法は、3Dシーンのポイントワイズ表現を利用する。
3次元オブジェクトのよりコンパクトな表現である2次元曲面を用いたシーン記述法を提案する。
提案手法は低レイテンシとメモリの有効性を維持しつつ、競争力があり、しかも精度も優れている。
論文 参考訳(メタデータ) (2023-04-27T13:52:01Z) - BEVPlace: Learning LiDAR-based Place Recognition using Bird's Eye View
Images [20.30997801125592]
位置認識における異なる表現の可能性、すなわち鳥の視線(BEV)画像について検討する。
BEV画像上で訓練された単純なVGGNetは、わずかな視点変化のシーンにおける最先端の場所認識手法と同等のパフォーマンスを達成する。
そこで我々は,クエリクラウドの位置を推定し,位置認識の利用を拡大する手法を開発した。
論文 参考訳(メタデータ) (2023-02-28T05:37:45Z) - NeuMap: Neural Coordinate Mapping by Auto-Transdecoder for Camera
Localization [60.73541222862195]
NeuMapは、カメラのローカライゼーションのためのエンドツーエンドのニューラルマッピング手法である。
シーン全体を遅延コードグリッドにエンコードし、Transformerベースのオートデコーダがクエリピクセルの3D座標を回帰する。
論文 参考訳(メタデータ) (2022-11-21T04:46:22Z) - Structure PLP-SLAM: Efficient Sparse Mapping and Localization using
Point, Line and Plane for Monocular, RGB-D and Stereo Cameras [13.693353009049773]
本稿では,PPRモジュールを組み込んだ高機能カメラローカライゼーションを実現するために,ポイント・ライン・クラウドを用いた視界SLAMシステムを提案する。
再構成された線や平面上での複数の実行時最適化を提案することにより,幾何的プリミティブをスケールのあいまいさで再構築するという課題に対処する。
その結果,提案したSLAMはセマンティック機能をしっかりと組み込んで,トラッキングとバックエンドの最適化を強化していることがわかった。
論文 参考訳(メタデータ) (2022-07-13T09:05:35Z) - ASH: A Modern Framework for Parallel Spatial Hashing in 3D Perception [91.24236600199542]
ASHは、GPU上の並列空間ハッシュのためのモダンで高性能なフレームワークである。
ASHはより高いパフォーマンスを実現し、よりリッチな機能をサポートし、より少ないコード行を必要とする。
ASHとそのサンプルアプリケーションはOpen3Dでオープンソース化されている。
論文 参考訳(メタデータ) (2021-10-01T16:25:40Z) - Markov Localisation using Heatmap Regression and Deep Convolutional
Odometry [59.33322623437816]
我々は,最新のディープラーニングハードウェアを活用する新しいCNNベースのローカライゼーション手法を提案する。
画像に基づくローカライゼーションと,1つのニューラルネットワーク内でのオドメトリーに基づく確率伝搬を行うハイブリッドCNNを作成する。
論文 参考訳(メタデータ) (2021-06-01T10:28:49Z) - Learning to Localize Through Compressed Binary Maps [83.03367511221437]
私たちは、地図表現をローカリゼーションタスクに最適なように圧縮することを学びます。
本実験により,汎用コーデック上での2桁のストレージ要求を削減できるタスク固有圧縮を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-12-20T14:47:15Z) - Geometric Structure Aided Visual Inertial Localization [24.42071242531681]
計算コストを削減し、位置決め精度を高めるために、ハイブリッドマップ表現に基づく完全な視覚的位置決めシステムを提案する。
バッチ最適化では、視覚的要因を使わずに、インスタントローカライゼーション結果に先立ってポーズを推定するモジュールを開発する。
EuRoC MAVデータセットの実験結果は、芸術の状況と比較して、競争力のある性能を示している。
論文 参考訳(メタデータ) (2020-11-09T03:48:39Z) - Multiscale Point Cloud Geometry Compression [29.605320327889142]
本稿では,3次元ポイント・クラウド・ジオメトリを階層的に再構築するマルチスケール・ツー・エンド・ラーニング・フレームワークを提案する。
このフレームワークは、ポイントクラウド圧縮と再構成のためのスパース畳み込みベースのオートエンコーダの上に開発されている。
論文 参考訳(メタデータ) (2020-11-07T16:11:16Z) - OpenREALM: Real-time Mapping for Unmanned Aerial Vehicles [62.997667081978825]
OpenREALMは無人航空機(UAV)のリアルタイムマッピングフレームワークである
異なる操作モードにより、OpenREALMは近似平面場を仮定して単純な縫合を行うことができる。
すべてのモードにおいて、結果のマップの漸進的な進捗は、地上のオペレータによってライブで見ることができる。
論文 参考訳(メタデータ) (2020-09-22T12:28:14Z) - LOL: Lidar-Only Odometry and Localization in 3D Point Cloud Maps [0.6091702876917281]
都市部を走行するライダー搭載車両の軌道計測と位置推定の問題に対処する。
オンライン3Dポイントクラウドと事前オフラインマップとの間の幾何学的に類似した位置を検出するために,位置認識手法を適用した。
異なる長さと環境の複数のKittiデータセット上で,提案するLOLシステムの有用性を実証する。
論文 参考訳(メタデータ) (2020-07-03T10:20:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。