論文の概要: Robust Scene Coordinate Regression via Geometrically-Consistent Global Descriptors
- arxiv url: http://arxiv.org/abs/2512.17226v1
- Date: Fri, 19 Dec 2025 04:24:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.246658
- Title: Robust Scene Coordinate Regression via Geometrically-Consistent Global Descriptors
- Title(参考訳): 幾何学的一貫したグローバル記述子によるロバストなシーン座標回帰
- Authors: Son Tung Nguyen, Tobias Fischer, Alejandro Fontan, Michael Milford,
- Abstract要約: 幾何学的構造と視覚的類似性の両方に整合したグローバルな記述子を学習するアグリゲータモジュールを提案する。
これにより、信頼できないオーバーラップスコアによる誤関連が修正される。
挑戦的なベンチマークの実験では、大規模環境ではかなりのローカライゼーションが得られた。
- 参考スコア(独自算出の注目度): 52.57327385675752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent learning-based visual localization methods use global descriptors to disambiguate visually similar places, but existing approaches often derive these descriptors from geometric cues alone (e.g., covisibility graphs), limiting their discriminative power and reducing robustness in the presence of noisy geometric constraints. We propose an aggregator module that learns global descriptors consistent with both geometrical structure and visual similarity, ensuring that images are close in descriptor space only when they are visually similar and spatially connected. This corrects erroneous associations caused by unreliable overlap scores. Using a batch-mining strategy based solely on the overlap scores and a modified contrastive loss, our method trains without manual place labels and generalizes across diverse environments. Experiments on challenging benchmarks show substantial localization gains in large-scale environments while preserving computational and memory efficiency. Code is available at \href{https://github.com/sontung/robust\_scr}{github.com/sontung/robust\_scr}.
- Abstract(参考訳): 近年の学習に基づく視覚的ローカライゼーション手法では、グローバルな記述子を用いて視覚的に類似した場所を曖昧にしているが、既存のアプローチでは、これらの記述子は幾何学的キューのみ(例えば可視性グラフ)から導出され、識別力は制限され、ノイズの多い幾何学的制約が存在する場合のロバスト性は低下する。
幾何学的構造と視覚的類似性の両方に整合したグローバルな記述子を学習し,画像が視覚的に類似し空間的に結びついている場合にのみ,記述子空間に近接していることを保証するアグリゲータモジュールを提案する。
これにより、信頼できないオーバーラップスコアによる誤関連が修正される。
オーバーラップスコアと修正されたコントラスト損失のみに基づくバッチマイニング戦略を用いることで,手動のプレースラベルを使用せず,多様な環境にまたがって一般化を行う。
挑戦的なベンチマークの実験では、計算とメモリ効率を保ちながら、大規模環境ではかなりのローカライゼーションが得られた。
コードは \href{https://github.com/sontung/robust\_scr}{github.com/sontung/robust\_scr} で公開されている。
関連論文リスト
- REGRACE: A Robust and Efficient Graph-based Re-localization Algorithm using Consistency Evaluation [23.41000678070751]
ループ閉包は、ドリフトを補正し、一貫した地図を作成するのに不可欠である。
高精度な位置認識のための高密度点雲を用いた現在の手法は、計算コストの高いスキャン・スキャン・スキャン比較のため、うまくスケールしない。
我々は、スケーラビリティと再ローカライゼーションにおける視点差のこれらの課題に対処する新しいアプローチであるREGRACEを紹介する。
論文 参考訳(メタデータ) (2025-03-05T15:32:38Z) - FUSELOC: Fusing Global and Local Descriptors to Disambiguate 2D-3D Matching in Visual Localization [52.57327385675752]
直接2D-3Dマッチングではメモリが大幅に削減されるが、より大きくあいまいな検索空間のために精度が低下する。
重み付き平均演算子を用いて局所的および大域的記述子を融合することにより、この曖昧さに対処する。
メモリを43%削減し、1.6倍高速に動作しながら、階層的な手法に近いパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-08-21T23:42:16Z) - Coupled Laplacian Eigenmaps for Locally-Aware 3D Rigid Point Cloud Matching [0.0]
局所構造を考慮したグラフラプラシアン固有写像に基づく新しい手法を提案する。
ラプラシアン固有写像の順序と符号のあいまいさに対処するために、結合ラプラシアンと呼ばれる新しい作用素を導入する。
これらの高次元空間間の類似性は、形状に一致するような局所的な意味のあるスコアを与えることを示す。
論文 参考訳(メタデータ) (2024-02-27T10:10:12Z) - Viewpoint Invariant Dense Matching for Visual Geolocalization [15.8038460597256]
本研究では,局所的特徴量に基づく画像マッチング手法を提案する。
我々の手法はGeoWarpと呼ばれ、高密度な特徴を抽出する過程において、視点シフトへの不変性を直接埋め込む。
GeoWarpは、既存の視覚的ジオローカライゼーションパイプラインに簡単に組み込むことができる、リグレードメソッドとして効率的に実装されている。
論文 参考訳(メタデータ) (2021-09-20T20:17:38Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。