論文の概要: BEV-SLD: Self-Supervised Scene Landmark Detection for Global Localization with LiDAR Bird's-Eye View Images
- arxiv url: http://arxiv.org/abs/2603.17159v1
- Date: Tue, 17 Mar 2026 21:44:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.40525
- Title: BEV-SLD: Self-Supervised Scene Landmark Detection for Global Localization with LiDAR Bird's-Eye View Images
- Title(参考訳): BEV-SLD:LiDAR Bird's-Eye View Imagesによるグローバルローカライゼーションのための自己監督型ランドマーク検出
- Authors: David Skuddis, Vincent Ress, Wei Zhang, Vincent Ofosu Nyako, Norbert Haala,
- Abstract要約: 本稿では,SLD(Scene Landmark Detection)概念に基づくLiDARグローバルローカライゼーション手法であるBEV-SLDを提案する。
シーンに依存しないパイプラインとは異なり、我々の自己監督的アプローチは、鳥の目視(BEV)画像を利用してシーン固有のパターンを発見する。
一貫性損失は、学習可能なグローバルなランドマーク座標とフレーム単位のヒートマップを一致させ、一貫したランドマーク検出をもたらす。
- 参考スコア(独自算出の注目度): 6.6441836770192815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present BEV-SLD, a LiDAR global localization method building on the Scene Landmark Detection (SLD) concept. Unlike scene-agnostic pipelines, our self-supervised approach leverages bird's-eye-view (BEV) images to discover scene-specific patterns at a prescribed spatial density and treat them as landmarks. A consistency loss aligns learnable global landmark coordinates with per-frame heatmaps, yielding consistent landmark detections across the scene. Across campus, industrial, and forest environments, BEV-SLD delivers robust localization and achieves strong performance compared to state-of-the-art methods.
- Abstract(参考訳): 本稿では,SLD(Scene Landmark Detection)概念に基づくLiDARグローバルローカライゼーション手法であるBEV-SLDを提案する。
我々の自己監督的アプローチは、シーンに依存しないパイプラインとは異なり、鳥の目視(BEV)画像を利用して、所定の空間密度でシーン固有のパターンを発見し、それらをランドマークとして扱う。
一貫性の喪失は、学習可能なグローバルなランドマーク座標とフレームごとのヒートマップを一致させ、シーン全体で一貫したランドマーク検出をもたらす。
キャンパス、工業、森林環境全体にわたって、BEV-SLDはロバストなローカライゼーションを提供し、最先端の手法と比較して高いパフォーマンスを実現している。
関連論文リスト
- Loc$^2$: Interpretable Cross-View Localization via Depth-Lifted Local Feature Matching [80.57282092735991]
本稿では,高精度かつ解釈可能なクロスビューローカライズ手法を提案する。
地上画像の3自由度(DoF)のポーズを、その局所的な特徴と基準空中画像とをマッチングすることによって推定する。
実験では、クロスエリアテストや未知の向きといった挑戦的なシナリオにおいて、最先端の精度を示す。
論文 参考訳(メタデータ) (2025-09-11T18:52:16Z) - Zooming In on Fakes: A Novel Dataset for Localized AI-Generated Image Detection with Forgery Amplification Approach [69.01456182499486]
textbfBR-Genは、さまざまなシーン認識アノテーションを備えた15万のローカル鍛造イメージの大規模なデータセットである。
textbfNFA-ViTはノイズ誘導フォージェリ増幅ビジョン変換器で、ローカライズされたフォージェリの検出を強化する。
論文 参考訳(メタデータ) (2025-04-16T09:57:23Z) - ForestLPR: LiDAR Place Recognition in Forests Attentioning Multiple BEV Density Images [38.727720300337296]
本研究では,自然林におけるロバストなLiDARを用いた位置認識手法であるフォレストLPRを提案する。
異なる高さの森の地形の断面画像には、ある場所を再訪するために必要な情報が含まれている。
提案手法では,視覚変換器を共有バックボーンとして使用し,局所記述子の集合を生成する。
論文 参考訳(メタデータ) (2025-03-06T14:24:22Z) - RING#: PR-by-PE Global Localization with Roto-translation Equivariant Gram Learning [20.688641105430467]
GPS信号が信頼できない場合、グローバルなローカライゼーションは自動運転やロボティクスの応用において不可欠である。
ほとんどのアプローチは、逐次位置認識(PR)とポーズ推定(PE)により、グローバルなローカライゼーションを実現する。
ポーズ推定から直接導出することで、別の場所認識の必要性を回避できる新しいパラダイムであるPR-by-PEローカライゼーションを導入する。
本稿では,鳥眼視(BEV)空間で動作する終端PR-by-PEローカライゼーションネットワークであるRING#を提案する。
論文 参考訳(メタデータ) (2024-08-30T18:42:53Z) - Bird's-Eye-View Scene Graph for Vision-Language Navigation [85.72725920024578]
視覚言語ナビゲーション(VLN)は、人間の指示に従って3D環境をナビゲートするエージェントである。
室内環境のシーンレイアウトと幾何学的手がかりを符号化するために,多段階のBEV表現を利用するBEVシーングラフ(BSG)を提案する。
BSGに基づいて、エージェントは、ローカルなBEVグリッドレベル決定スコアとグローバルなグラフレベル決定スコアを予測し、パノラマビューのサブビュー選択スコアと組み合わせる。
論文 参考訳(メタデータ) (2023-08-09T07:48:20Z) - Spatial Likelihood Voting with Self-Knowledge Distillation for Weakly
Supervised Object Detection [54.24966006457756]
自己知識蒸留ネットワーク(SLV-SDネット)を用いたWSODフレームワークを提案する。
SLV-SD Netは、境界ボックスアノテーションなしで領域提案のローカライゼーションを収束させる。
PASCAL VOC 2007/2012およびMS-COCOデータセットの実験は、SLV-SD Netの優れた性能を示している。
論文 参考訳(メタデータ) (2022-04-14T11:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。