論文の概要: OverlapNetVLAD: A Coarse-to-Fine Framework for LiDAR-based Place
Recognition
- arxiv url: http://arxiv.org/abs/2303.06881v1
- Date: Mon, 13 Mar 2023 05:56:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 16:14:24.717120
- Title: OverlapNetVLAD: A Coarse-to-Fine Framework for LiDAR-based Place
Recognition
- Title(参考訳): OverlapNetVLAD:LiDARを用いた位置認識のための粗大なフレームワーク
- Authors: Chencan Fu, Lin Li, Linpeng Peng, Yukai Ma, Xiangrui Zhao, and Yong
Liu
- Abstract要約: 既存の3次元LiDAR位置認識手法は、限られた特徴表現能力と長い検索時間に悩まされている。
本研究では,Birds' Eye View (BEV)特徴抽出,粗粒度マッチング,きめ細かな検証を組み合わせた3次元LiDAR位置認識のための新しい粗粒度フレームワークを提案する。
我々のフレームワークは最先端の手法と比較して先進的な性能を実現している。
- 参考スコア(独自算出の注目度): 9.74043985151874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Place recognition is a challenging yet crucial task in robotics. Existing 3D
LiDAR place recognition methods suffer from limited feature representation
capability and long search times. To address these challenges, we propose a
novel coarse-to-fine framework for 3D LiDAR place recognition that combines
Birds' Eye View (BEV) feature extraction, coarse-grained matching, and
fine-grained verification. In the coarse stage, our framework leverages the
rich contextual information contained in BEV features to produce global
descriptors. Then the top-\textit{K} most similar candidates are identified via
descriptor matching, which is fast but coarse-grained. In the fine stage, our
overlap estimation network reuses the corresponding BEV features to predict the
overlap region, enabling meticulous and precise matching. Experimental results
on the KITTI odometry benchmark demonstrate that our framework achieves leading
performance compared to state-of-the-art methods. Our code is available at:
\url{https://github.com/fcchit/OverlapNetVLAD}.
- Abstract(参考訳): 位置認識はロボット工学では難しいが重要な課題だ。
既存の3dライダー位置認識手法は特徴表現能力に制限があり、検索時間が長い。
これらの課題に対処するために,バードズアイビュー(BEV)特徴抽出,粗粒度マッチング,細粒度検証を組み合わせた3次元LiDAR位置認識のための新しい粗粒度フレームワークを提案する。
粗い段階では,BEV機能に含まれる豊富なコンテキスト情報を利用してグローバルな記述子を生成する。
すると、最も類似する候補のトップ-\textit{k} が記述子マッチングによって識別される。
詳細な段階では、重なり推定ネットワークは対応するBEV特徴を再利用し、重なり合う領域を予測し、正確かつ正確なマッチングを可能にする。
KITTI odometry ベンチマークの実験結果から,我々のフレームワークは最先端の手法と比較して高い性能を達成できることが示された。
私たちのコードは、 \url{https://github.com/fcchit/overlapnetvlad} で利用可能です。
関連論文リスト
- Deep Homography Estimation for Visual Place Recognition [51.70437924779968]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - VoxelKP: A Voxel-based Network Architecture for Human Keypoint
Estimation in LiDAR Data [53.638818890966036]
textitVoxelKPは、LiDARデータにおける人間のキーポイント推定に適した、完全にスパースなネットワークアーキテクチャである。
本研究では,人間の各インスタンス内のキーポイント間の空間的相関を学習するために,スパースボックスアテンションを導入する。
鳥の視線を符号化する2次元格子に3次元ボクセルを投影する際に, 絶対的な3次元座標を利用するために空間符号化を組み込んだ。
論文 参考訳(メタデータ) (2023-12-11T23:50:14Z) - Fully Sparse Fusion for 3D Object Detection [91.28571584038467]
現在広く使われているマルチモーダル3D検出法は、通常、密度の高いBird-Eye-View特徴マップを使用するLiDARベースの検出器上に構築されている。
完全にスパースなアーキテクチャは、長距離知覚において非常に効率的であるため、注目を集めている。
本稿では,新たに出現するフルスパースアーキテクチャにおいて,画像のモダリティを効果的に活用する方法を検討する。
論文 参考訳(メタデータ) (2023-04-24T17:57:43Z) - A Unified BEV Model for Joint Learning of 3D Local Features and Overlap
Estimation [12.499361832561634]
本稿では,3次元局所特徴の同時学習と重なり推定のための統合鳥眼ビュー(BEV)モデルを提案する。
提案手法は,特に重複の少ないシーンにおいて,重複予測における既存手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-28T12:01:16Z) - GLENet: Boosting 3D Object Detectors with Generative Label Uncertainty
Estimation [59.05097963821385]
本稿では,対象物の潜在的可算有界箱の多様性として,ラベルの不確実性問題を定式化する。
本稿では,条件付き変分オートエンコーダを応用した生成フレームワークであるGLENetを提案する。
GLENetが生成するラベルの不確実性はプラグアンドプレイモジュールであり、既存のディープ3D検出器に便利に統合することができる。
論文 参考訳(メタデータ) (2022-07-06T06:26:17Z) - RAANet: Range-Aware Attention Network for LiDAR-based 3D Object
Detection with Auxiliary Density Level Estimation [11.180128679075716]
自律運転のためのLiDARデータから3Dオブジェクトを検出するために,Range-Aware Attention Network (RAANet) が開発された。
RAANetはより強力なBEV機能を抽出し、優れた3Dオブジェクト検出を生成する。
nuScenesデータセットの実験により,提案手法がLiDARを用いた3Dオブジェクト検出の最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-11-18T04:20:13Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - Inter-class Discrepancy Alignment for Face Recognition [55.578063356210144]
IA(Inter-class DiscrepancyAlignment)という統合フレームワークを提案する。
IDA-DAOは、画像と隣人の相違を考慮した類似度スコアの整合に使用される。
IDA-SSEは、GANで生成された仮想候補画像を導入することで、説得力のあるクラス間隣人を提供できます。
論文 参考訳(メタデータ) (2021-03-02T08:20:08Z) - SemanticVoxels: Sequential Fusion for 3D Pedestrian Detection using
LiDAR Point Cloud and Semantic Segmentation [4.350338899049983]
我々は、異なるレベルで融合を適用できるように、PointPaintingの一般化を提案する。
本研究では,セマンティックボクセルが3次元および鳥の視線歩行者検出ベンチマークにおいて,最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2020-09-25T14:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。