論文の概要: BEV-Patch-PF: Particle Filtering with BEV-Aerial Feature Matching for Off-Road Geo-Localization
- arxiv url: http://arxiv.org/abs/2512.15111v1
- Date: Wed, 17 Dec 2025 06:03:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.868999
- Title: BEV-Patch-PF: Particle Filtering with BEV-Aerial Feature Matching for Off-Road Geo-Localization
- Title(参考訳): BEV-Patch-PF:BEV-Aerial Feature Matching for Off-Road Geo-Localization
- Authors: Dongmyeong Lee, Jesse Quattrociocchi, Christian Ellis, Rwik Rana, Amanda Adkins, Adam Uccello, Garrett Warnell, Joydeep Biswas,
- Abstract要約: 本研究では,粒子フィルタと学習した鳥眼ビュー(BEV)と空中特徴マップを統合した逐次ジオローカライゼーションシステムを提案する。
BEV-Patch-PFは、BEV特徴と空中パッチ特徴とをマッチングすることにより、粒子ごとのログライクな計算を行う。
2つの実世界のオフロードデータセット上では、観測経路における絶対軌道誤差(ATE)が7.5倍、未知経路におけるATEが7.0倍となる。
- 参考スコア(独自算出の注目度): 11.384592553913778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose BEV-Patch-PF, a GPS-free sequential geo-localization system that integrates a particle filter with learned bird's-eye-view (BEV) and aerial feature maps. From onboard RGB and depth images, we construct a BEV feature map. For each 3-DoF particle pose hypothesis, we crop the corresponding patch from an aerial feature map computed from a local aerial image queried around the approximate location. BEV-Patch-PF computes a per-particle log-likelihood by matching the BEV feature to the aerial patch feature. On two real-world off-road datasets, our method achieves 7.5x lower absolute trajectory error (ATE) on seen routes and 7.0x lower ATE on unseen routes than a retrieval-based baseline, while maintaining accuracy under dense canopy and shadow. The system runs in real time at 10 Hz on an NVIDIA Tesla T4, enabling practical robot deployment.
- Abstract(参考訳): 粒子フィルタと学習した鳥眼ビュー(BEV)と空中特徴マップを統合したGPSのない逐次ジオローカライズシステムであるBEV-Patch-PFを提案する。
搭載したRGBと深度画像から,BEV特徴マップを構築する。
各3DF粒子のポーズ仮説に対して, 近似位置付近の局所的空中画像から計算した特徴写像から対応するパッチを抽出する。
BEV-Patch-PFは、BEV特徴と空中パッチ特徴とをマッチングすることにより、粒子ごとのログライクな計算を行う。
実世界の2つのオフロードデータセットにおいて,観測経路における絶対軌道誤差(ATE)が7.5倍,未確認経路でのATEが7.0倍,高密度キャノピーとシャドウの下で精度が維持されている。
このシステムはNVIDIA Tesla T4上で10Hzでリアルタイムに動作し、実用的なロボットの配備を可能にしている。
関連論文リスト
- FG$^2$: Fine-Grained Cross-View Localization by Fine-Grained Feature Matching [69.81167130510333]
本研究では, 地上画像の3次元自由度ポーズを, 周囲の空中画像から推定する, 微粒なクロスビューローカライゼーション手法を提案する。
地中画像から生成された点面と地中画像からサンプリングされた点面とを合わせ、ポーズを推定する。
従来の最先端技術と比較して,VIGORクロスエリアテストセットでは,平均局所化誤差を28%削減する。
論文 参考訳(メタデータ) (2025-03-24T14:34:20Z) - RaCFormer: Towards High-Quality 3D Object Detection via Query-based Radar-Camera Fusion [58.77329237533034]
本稿では3次元物体検出の精度を高めるために,Raar-Camera fusion transformer (RaCFormer)を提案する。
RaCFormerは、nuScenesデータセット上で64.9% mAPと70.2%の優れた結果を得る。
論文 参考訳(メタデータ) (2024-12-17T09:47:48Z) - VQ-Map: Bird's-Eye-View Map Layout Estimation in Tokenized Discrete Space via Vector Quantization [108.68014173017583]
Bird's-eye-view (BEV) マップのレイアウト推定には、エゴ車の周囲の環境要素のセマンティクスを正確に完全に理解する必要がある。
本稿では,Vector Quantized-Variational AutoEncoder (VQ-VAE) に似た生成モデルを用いて,トークン化された離散空間における高レベルのBEVセマンティクスの事前知識を取得することを提案する。
得られたBEVトークンには,異なるBEV要素のセマンティクスを包含したコードブックが組み込まれているため,スパースバックボーン画像特徴と得られたBEVトークンとを直接一致させることができる。
論文 参考訳(メタデータ) (2024-11-03T16:09:47Z) - Map It Anywhere (MIA): Empowering Bird's Eye View Mapping using Large-scale Public Data [3.1968751101341173]
トップダウンのBird's Eye View (BEV)マップは地上ロボットナビゲーションの一般的な表現である。
最近の手法では、ファーストパーソンビュー(FPV)画像からBEVマップを予測することが約束されているが、その一般化可能性は、現在の自動運転車ベースのデータセットによってキャプチャされた小さな領域に限られている。
2つの大規模クラウドソースマッピングプラットフォームを利用することで,よりスケーラブルなマップ予測手法が実現可能であることを示す。
論文 参考訳(メタデータ) (2024-07-11T17:57:22Z) - U-BEV: Height-aware Bird's-Eye-View Segmentation and Neural Map-based Relocalization [81.76044207714637]
GPS受信が不十分な場合やセンサベースのローカライゼーションが失敗する場合、インテリジェントな車両には再ローカライゼーションが不可欠である。
Bird's-Eye-View (BEV)セグメンテーションの最近の進歩は、局所的な景観の正確な推定を可能にする。
本稿では,U-NetにインスパイアされたアーキテクチャであるU-BEVについて述べる。
論文 参考訳(メタデータ) (2023-10-20T18:57:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。