論文の概要: HOLO: Homography-Guided Pose Estimator Network for Fine-Grained Visual Localization on SD Maps
- arxiv url: http://arxiv.org/abs/2601.02730v1
- Date: Tue, 06 Jan 2026 05:48:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.814159
- Title: HOLO: Homography-Guided Pose Estimator Network for Fine-Grained Visual Localization on SD Maps
- Title(参考訳): HOLO:SDマップ上での微細視像定位のためのホログラフィ誘導型ポス推定ネットワーク
- Authors: Xuchang Zhong, Xu Cao, Jinke Feng, Hao Fang,
- Abstract要約: マルチビュー画像と標準定義(SD)マップ間の視覚的微粒化のための,新しいホモグラフィ誘導ポーズ推定ネットワークを提案する。
我々の知る限りでは、画像からマップへのローカライゼーションのためのホモグラフィ学習とBEVセマンティック推論を統合化するための最初の試みである。
- 参考スコア(独自算出の注目度): 13.643067075619841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual localization on standard-definition (SD) maps has emerged as a promising low-cost and scalable solution for autonomous driving. However, existing regression-based approaches often overlook inherent geometric priors, resulting in suboptimal training efficiency and limited localization accuracy. In this paper, we propose a novel homography-guided pose estimator network for fine-grained visual localization between multi-view images and standard-definition (SD) maps. We construct input pairs that satisfy a homography constraint by projecting ground-view features into the BEV domain and enforcing semantic alignment with map features. Then we leverage homography relationships to guide feature fusion and restrict the pose outputs to a valid feasible region, which significantly improves training efficiency and localization accuracy compared to prior methods relying on attention-based fusion and direct 3-DoF pose regression. To the best of our knowledge, this is the first work to unify BEV semantic reasoning with homography learning for image-to-map localization. Furthermore, by explicitly modeling homography transformations, the proposed framework naturally supports cross-resolution inputs, enhancing model flexibility. Extensive experiments on the nuScenes dataset demonstrate that our approach significantly outperforms existing state-of-the-art visual localization methods. Code and pretrained models will be publicly released to foster future research.
- Abstract(参考訳): 標準定義(SD)マップの視覚的ローカライゼーションは、自動運転のための低コストでスケーラブルなソリューションとして期待されている。
しかし、既存の回帰に基づくアプローチは、しばしば固有の幾何学的先行性を見落とし、最適以下の訓練効率と局所化精度の制限をもたらす。
本稿では,マルチビュー画像と標準定義(SD)マップ間の視覚的微粒化のための,新しいホモグラフィ誘導型ポーズ推定器ネットワークを提案する。
我々は,BEV領域に基底ビュー特徴を投影し,マップ特徴と意味的アライメントを強制することにより,ホモグラフィ制約を満たす入力ペアを構築する。
次に,特徴融合を誘導するホモグラフィの関係を利用してポーズ出力を有効な領域に制限し,注意に基づく融合と直接3DFのポーズ回帰に依存する従来の手法と比較して,トレーニング効率と位置決め精度を大幅に向上させる。
我々の知る限りでは、画像からマップへのローカライゼーションのためのホモグラフィ学習とBEVセマンティック推論を統合化するための最初の試みである。
さらに、ホモグラフィ変換を明示的にモデル化することにより、提案フレームワークはクロスレゾリューション入力を自然にサポートし、モデルの柔軟性を向上させる。
nuScenesデータセットの大規模な実験により、我々のアプローチは既存の最先端の視覚的ローカライゼーション手法よりも大幅に優れていることが示された。
コードと事前訓練されたモデルは、将来の研究を促進するために公開されます。
関連論文リスト
- Loc$^2$: Interpretable Cross-View Localization via Depth-Lifted Local Feature Matching [80.57282092735991]
本稿では,高精度かつ解釈可能なクロスビューローカライズ手法を提案する。
地上画像の3自由度(DoF)のポーズを、その局所的な特徴と基準空中画像とをマッチングすることによって推定する。
実験では、クロスエリアテストや未知の向きといった挑戦的なシナリオにおいて、最先端の精度を示す。
論文 参考訳(メタデータ) (2025-09-11T18:52:16Z) - GeoDistill: Geometry-Guided Self-Distillation for Weakly Supervised Cross-View Localization [70.65458151146767]
クロスビューのローカライゼーションは、自律ナビゲーションや拡張現実のような大規模な屋外アプリケーションにとって不可欠である。
既存の手法は、しばしば完全に教師付き学習に依存している。
本研究では,FoV(Field-of-View)ベースのマスキングを用いた教師学習フレームワークGeoDistillを提案する。
論文 参考訳(メタデータ) (2025-07-15T03:00:15Z) - Unbiased Region-Language Alignment for Open-Vocabulary Dense Prediction [80.67150791183126]
事前訓練された視覚言語モデル(VLM)は、印象的なゼロショット認識能力を示したが、それでも高密度予測タスクでは性能が劣っている。
提案するDenseVLMは,非バイアスの領域言語アライメントを,強力な事前学習型VLM表現から学習するためのフレームワークである。
DenseVLMは、オープン語彙オブジェクト検出および画像分割法において、元のVLMを直接置き換えることができることを示す。
論文 参考訳(メタデータ) (2024-12-09T06:34:23Z) - TIDE: Training Locally Interpretable Domain Generalization Models Enables Test-time Correction [14.396966854171273]
単一ソース領域の一般化の問題を考える。
既存の手法は通常、訓練中に様々な領域を合成的にカバーする広範囲な拡張に依存している。
予測において,そのような局所的な概念を活用するためにモデルを補完する手法を提案する。
論文 参考訳(メタデータ) (2024-11-25T08:46:37Z) - OSMLoc: Single Image-Based Visual Localization in OpenStreetMap with Fused Geometric and Semantic Guidance [20.043977909592115]
OSMLocは、OpenStreetMapマップに対するファーストパーソナライズされたイメージに基づく、脳にインスパイアされた視覚的ローカライゼーションアプローチである。
意味的および幾何学的ガイダンスを統合し、精度、堅牢性、一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-11-13T14:59:00Z) - Breaking the Frame: Visual Place Recognition by Overlap Prediction [53.17564423756082]
本稿では,重なり合う予測に基づく新しい視覚的位置認識手法 VOP を提案する。
VOPは、Vision Transformerのバックボーンを使用してパッチレベルの埋め込みを取得することで、コビジュアブルなイメージセクションを進める。
提案手法では,データベース画像の重複点の評価に投票機構を用いる。
論文 参考訳(メタデータ) (2024-06-23T20:00:20Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Cross-Descriptor Visual Localization and Mapping [81.16435356103133]
視覚のローカライゼーションとマッピングは、Mixed Realityとロボティクスシステムの大部分を支える重要な技術である。
特徴表現の連続的な更新を必要とする局所化とマッピングのための3つの新しいシナリオを提案する。
我々のデータ駆動型アプローチは特徴記述子型に非依存であり、計算要求が低く、記述アルゴリズムの数と線形にスケールする。
論文 参考訳(メタデータ) (2020-12-02T18:19:51Z) - Domain-invariant Similarity Activation Map Contrastive Learning for
Retrieval-based Long-term Visual Localization [30.203072945001136]
本研究では,多領域画像変換による領域不変特徴抽出のために,確率論的に一般アーキテクチャを定式化する。
そして、より精密な局所化のために、新しい勾配重み付き類似性活性化写像損失(Grad-SAM)を組み込んだ。
CMUSeasonsデータセットにおける提案手法の有効性を検証するために大規模な実験が行われた。
我々の性能は、最先端のイメージベースのローカライゼーションベースラインを中あるいは高精度で上回るか、あるいは上回る。
論文 参考訳(メタデータ) (2020-09-16T14:43:22Z) - Combining Deep Learning with Geometric Features for Image based
Localization in the Gastrointestinal Tract [8.510792628268824]
そこで本研究では,Deep Learning法と従来の特徴量に基づく手法を併用して,小さなトレーニングデータを用いたより優れたローカライゼーションを実現する手法を提案する。
本手法は, セグメンテッドトレーニング画像セットにおいて, 最寄りのゾーンに数発の分類を行うために, シームズネットワーク構造を導入することにより, 両世界の長所をフル活用する。
精度は28.94% (Position) と10.97% (Orientation) で改善されている。
論文 参考訳(メタデータ) (2020-05-11T23:04:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。