論文の概要: BVMatch: Lidar-based Place Recognition Using Bird's-eye View Images
- arxiv url: http://arxiv.org/abs/2109.00317v1
- Date: Wed, 1 Sep 2021 11:52:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-02 14:19:50.410028
- Title: BVMatch: Lidar-based Place Recognition Using Bird's-eye View Images
- Title(参考訳): BVMatch:鳥眼視画像を用いたライダーによる位置認識
- Authors: Lun Luo, Si-Yuan Cao, Bin Han, Hui-Liang Shen, and Junwei Li
- Abstract要約: 2次元相対的なポーズを推定できるLidarベースのフレーム間位置認識フレームワークであるBVMatchを提案する。
3つの大規模データセットで実施された実験により、BVMatchは位置認識のリコール率と推定精度の両方で最先端の手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 11.393494063829232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recognizing places using Lidar in large-scale environments is challenging due
to the sparse nature of point cloud data. In this paper we present BVMatch, a
Lidar-based frame-to-frame place recognition framework, that is capable of
estimating 2D relative poses. Based on the assumption that the ground area can
be approximated as a plane, we uniformly discretize the ground area into grids
and project 3D Lidar scans to bird's-eye view (BV) images. We further use a
bank of Log-Gabor filters to build a maximum index map (MIM) that encodes the
orientation information of the structures in the images. We analyze the
orientation characteristics of MIM theoretically and introduce a novel
descriptor called bird's-eye view feature transform (BVFT). The proposed BVFT
is insensitive to rotation and intensity variations of BV images. Leveraging
the BVFT descriptors, we unify the Lidar place recognition and pose estimation
tasks into the BVMatch framework. The experiments conducted on three
large-scale datasets show that BVMatch outperforms the state-of-the-art methods
in terms of both recall rate of place recognition and pose estimation accuracy.
- Abstract(参考訳): 大規模環境でLidarを使用する場所を認識することは、ポイントクラウドデータの少ない性質のため難しい。
本稿では,2次元相対的なポーズを推定できるLidarベースのフレーム間位置認識フレームワークであるBVMatchを提案する。
地上領域を平面として近似できるという仮定に基づき、地上領域をグリッドに均一に判別し、バードズ・アイ・ビュー(bv)画像に3dライダースキャンを投影する。
さらに、画像内の構造の向き情報をエンコードする最大インデックスマップ(MIM)を構築するために、Log-Gaborフィルタのバンクを使用する。
我々はMIMの向き特性を理論的に分析し、鳥眼視特徴変換(BVFT)と呼ばれる新しい記述子を導入する。
提案したBVFTは,BV画像の回転および強度変化に敏感である。
BVFT記述子を活用することで、Lidarの位置認識と推定タスクをBVMatchフレームワークに統合する。
3つの大規模データセットで実施された実験により、BVMatchは位置認識のリコール率と推定精度の両方で最先端の手法より優れていることが示された。
関連論文リスト
- VQ-Map: Bird's-Eye-View Map Layout Estimation in Tokenized Discrete Space via Vector Quantization [108.68014173017583]
Bird's-eye-view (BEV) マップのレイアウト推定には、エゴ車の周囲の環境要素のセマンティクスを正確に完全に理解する必要がある。
本稿では,Vector Quantized-Variational AutoEncoder (VQ-VAE) に似た生成モデルを用いて,トークン化された離散空間における高レベルのBEVセマンティクスの事前知識を取得することを提案する。
得られたBEVトークンには,異なるBEV要素のセマンティクスを包含したコードブックが組み込まれているため,スパースバックボーン画像特徴と得られたBEVトークンとを直接一致させることができる。
論文 参考訳(メタデータ) (2024-11-03T16:09:47Z) - HeightLane: BEV Heightmap guided 3D Lane Detection [6.940660861207046]
単分子画像からの正確な3次元車線検出は、深さのあいまいさと不完全な地盤モデリングによる重要な課題を示す。
本研究は,マルチスロープ仮定に基づいてアンカーを作成することにより,単眼画像から高さマップを予測する革新的な手法であるHeightLaneを紹介する。
HeightLaneは、Fスコアの観点から最先端のパフォーマンスを実現し、現実世界のアプリケーションにおけるその可能性を強調している。
論文 参考訳(メタデータ) (2024-08-15T17:14:57Z) - HVDistill: Transferring Knowledge from Images to Point Clouds via Unsupervised Hybrid-View Distillation [106.09886920774002]
本稿では,HVDistillと呼ばれるハイブリッドビューに基づく知識蒸留フレームワークを提案する。
提案手法は,スクラッチからトレーニングしたベースラインに対して一貫した改善を実現し,既存のスキームを大幅に上回っている。
論文 参考訳(メタデータ) (2024-03-18T14:18:08Z) - DA-BEV: Unsupervised Domain Adaptation for Bird's Eye View Perception [104.87876441265593]
カメラのみのBird's Eye View (BEV)は3次元空間における環境認識に大きな可能性を示した。
非教師なし領域適応型BEVは、様々な未ラベル対象データから効果的に学習するが、まだ未探索である。
DA-BEVは、画像ビュー機能とBEV機能の相補性を利用して、ドメイン適応型BEV課題に対処する、最初のドメイン適応型カメラのみのBEVフレームワークである。
論文 参考訳(メタデータ) (2024-01-13T04:21:24Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - C-BEV: Contrastive Bird's Eye View Training for Cross-View Image
Retrieval and 3-DoF Pose Estimation [27.870926763424848]
本稿では,ベクトルを埋め込み表現としてではなく,鳥眼ビュー(BEV)マップを用いた新しい学習可能な検索アーキテクチャを提案する。
我々のC-BEV法は,複数のデータセットの検索タスクにおける最先端のタスクを大きなマージンで超えている。
論文 参考訳(メタデータ) (2023-12-13T11:14:57Z) - Leveraging BEV Representation for 360-degree Visual Place Recognition [14.497501941931759]
本稿では,360度視覚位置認識(VPR)におけるBird's Eye View表現の利点について検討する。
本稿では,特徴抽出,特徴集約,視覚-LiDAR融合におけるBEV表現を利用した新しいネットワークアーキテクチャを提案する。
提案手法は,2つのデータセットのアブレーションおよび比較研究において評価される。
論文 参考訳(メタデータ) (2023-05-23T08:29:42Z) - BEVPlace: Learning LiDAR-based Place Recognition using Bird's Eye View
Images [20.30997801125592]
位置認識における異なる表現の可能性、すなわち鳥の視線(BEV)画像について検討する。
BEV画像上で訓練された単純なVGGNetは、わずかな視点変化のシーンにおける最先端の場所認識手法と同等のパフォーマンスを達成する。
そこで我々は,クエリクラウドの位置を推定し,位置認識の利用を拡大する手法を開発した。
論文 参考訳(メタデータ) (2023-02-28T05:37:45Z) - A Large Scale Homography Benchmark [52.55694707744518]
1DSfMデータセットから10万枚の画像から約1000個の平面が観測された3D, Pi3Dの平面の大規模データセットを示す。
また,Pi3Dを利用した大規模ホモグラフィ推定ベンチマークであるHEBを提案する。
論文 参考訳(メタデータ) (2023-02-20T14:18:09Z) - Bird's-Eye-View Panoptic Segmentation Using Monocular Frontal View
Images [4.449481309681663]
本研究では,Bird's-Eye-View (BEV) マップにおいて,高密度パノプティックセグメンテーションマップを直接予測するエンド・ツー・エンドの学習手法を提案する。
私たちのアーキテクチャはトップダウンパラダイムに従っており、新しい高密度トランスモジュールを組み込んでいます。
我々は、FV-BEV変換の感度を数学的に定式化し、BEV空間のピクセルをインテリジェントに重み付けすることができる。
論文 参考訳(メタデータ) (2021-08-06T17:59:11Z) - Where am I looking at? Joint Location and Orientation Estimation by
Cross-View Matching [95.64702426906466]
ジオタグ付き空中画像の大規模データベースを考えると、クロスビューなジオローカライゼーションは問題となる。
地上画像と空中画像の向きを知ることは、これらの2つのビュー間のあいまいさを著しく軽減することができる。
局所化時の横方向のアライメントを推定する動的類似マッチングネットワークを設計する。
論文 参考訳(メタデータ) (2020-05-08T05:21:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。