論文の概要: (MGS)$^2$-Net: Unifying Micro-Geometric Scale and Macro-Geometric Structure for Cross-View Geo-Localization
- arxiv url: http://arxiv.org/abs/2602.10704v1
- Date: Wed, 11 Feb 2026 10:03:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.724492
- Title: (MGS)$^2$-Net: Unifying Micro-Geometric Scale and Macro-Geometric Structure for Cross-View Geo-Localization
- Title(参考訳): (MGS)$^2$-Net: クロスビュージオローカライゼーションのためのマイクロ幾何学スケールとマクロ幾何学構造の統合
- Authors: Minglei Li, Mengfan He, Chao Chen, Ziyang Meng,
- Abstract要約: CVGL(Cross-view geo-localization)は、UAVの航法において重要であるが、斜めの空中視と正方形衛星の視界との間には、急激な幾何学的不整合の下では不安定なままである。
このギャップを埋める幾何学的基盤を持つフレームワークとして、MGS (2$) を提案する。
実験の結果、(MGS)は2$の最先端のパフォーマンスを示し、Recall@1はUniversity-1652で97.5%、SUES-200で97.02%を記録した。
- 参考スコア(独自算出の注目度): 6.842471990535349
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-view geo-localization (CVGL) is pivotal for GNSS-denied UAV navigation but remains brittle under the drastic geometric misalignment between oblique aerial views and orthographic satellite references. Existing methods predominantly operate within a 2D manifold, neglecting the underlying 3D geometry where view-dependent vertical facades (macro-structure) and scale variations (micro-scale) severely corrupt feature alignment. To bridge this gap, we propose (MGS)$^2$, a geometry-grounded framework. The core of our innovation is the Macro-Geometric Structure Filtering (MGSF) module. Unlike pixel-wise matching sensitive to noise, MGSF leverages dilated geometric gradients to physically filter out high-frequency facade artifacts while enhancing the view-invariant horizontal plane, directly addressing the domain shift. To guarantee robust input for this structural filtering, we explicitly incorporate a Micro-Geometric Scale Adaptation (MGSA) module. MGSA utilizes depth priors to dynamically rectify scale discrepancies via multi-branch feature fusion. Furthermore, a Geometric-Appearance Contrastive Distillation (GACD) loss is designed to strictly discriminate against oblique occlusions. Extensive experiments demonstrate that (MGS)$^2$ achieves state-of-the-art performance, recording a Recall@1 of 97.5\% on University-1652 and 97.02\% on SUES-200. Furthermore, the framework exhibits superior cross-dataset generalization against geometric ambiguity. The code is available at: \href{https://github.com/GabrielLi1473/MGS-Net}{https://github.com/GabrielLi1473/MGS-Net}.
- Abstract(参考訳): CVGL(Cross-view geo-localization)は、GNSSが定義したUAV航法において重要な要素であるが、斜めの空中視と直交衛星視線との間の急激な幾何学的不整合の下では不安定なままである。
既存の手法は主に2次元多様体内で動作し、ビュー依存垂直ファサード(マクロ構造)とスケール変動(マイクロスケール)がひどい特徴アライメントの3次元幾何学を無視する。
このギャップを埋めるために、幾何グラウンドのフレームワークである(MGS)$^2$を提案する。
私たちのイノベーションの中核は、マクロ幾何学構造フィルタリング(MGSF)モジュールです。
ノイズに敏感なピクセルワイドマッチングとは異なり、MGSFは拡張幾何勾配を利用して高周波数のファサードアーティファクトを物理的にフィルタリングし、ビュー不変水平面を強化し、ドメインシフトに直接対処する。
この構造フィルタリングに対して堅牢な入力を保証するため,我々はマイクロジオメトリスケール適応 (MGSA) モジュールを明示的に組み込んだ。
MGSAは、マルチブランチ特徴核融合によるスケール不一致を動的に補正するために、奥行き先を利用する。
さらに,GACD(Geometric-Appearance Contrastive Distillation)損失は,斜め閉塞に対して厳密に識別するように設計されている。
大規模な実験により、(MGS)$^2$は最先端のパフォーマンスを実現し、University-1652ではRecall@1が97.5\%、SUES-200では97.02\%を記録した。
さらに、このフレームワークは幾何学的あいまいさに対して優れたクロスデータセットの一般化を示す。
コードは以下の通りである。 \href{https://github.com/GabrielLi1473/MGS-Net}{https://github.com/GabrielLi1473/MGS-Net}。
関連論文リスト
- Understanding and Improving UMAP with Geometric and Topological Priors: The JORC-UMAP Algorithm [1.7484982792736636]
次元削減技術、特に UMAP は高次元データの可視化に広く用いられている。
我々は幾何学的先行としてOllivier-Ricci曲率を導入し、幾何学的ボトルネックにおけるエッジを強化し、冗長リンクを減らす。
合成および実世界のデータセットの実験により、JORC-UMAPは標準的なUMAPや他のDR法よりも破断と崩壊を効果的に削減することが示された。
論文 参考訳(メタデータ) (2026-01-23T08:42:56Z) - MVGGT: Multimodal Visual Geometry Grounded Transformer for Multiview 3D Referring Expression Segmentation [59.75554954111619]
マルチビュー3D参照表現(MV-3DRES)を導入し、モデルがシーン構造を復元し、参照対象をスパースなマルチビュー画像から直接セグメント化する必要がある。
本稿では,言語情報をスパースビュー幾何学的推論に組み込む,効率的なエンドツーエンドフレームワークであるMultimodal Visual Geometry Grounded Transformer (MVGGT)を提案する。
実験により、MVGGTは最初の強力なベースラインを確立し、高精度かつ高速な推論を達成し、既存の選択肢よりも優れていることが示された。
論文 参考訳(メタデータ) (2026-01-11T11:44:07Z) - Geodiffussr: Generative Terrain Texturing with Elevation Fidelity [48.82552523546255]
テキスト誘導テクスチャマップを合成するフローマッチングパイプラインであるGeodiffussrを紹介する。
マルチスケールコンテンツアグリゲーション(MCA): DEM機能は、複数の解像度でUNetブロックに注入され、グローバルからローカライズされた高度の一貫性が強制される。
Geodiffussrを訓練し,評価するために,SRTM由来のDEMとSentinel-2画像と視覚接地型自然出現キャプションを組み合わせた三重項のグローバル分布,バイオメ-および気候成層コーパスを組み立てた。
論文 参考訳(メタデータ) (2025-11-28T09:52:44Z) - VA-GS: Enhancing the Geometric Representation of Gaussian Splatting via View Alignment [48.147381011235446]
3D Gaussian Splattingは、リアルタイムな新規ビュー合成のための効率的なソリューションとして最近登場した。
ビューアライメントによる3次元ガウス多様体の幾何学的表現を強化する新しい手法を提案する。
本手法は, 表面再構成と新しいビュー合成の両面において, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-10-13T14:44:50Z) - StableGS: A Floater-Free Framework for 3D Gaussian Splatting [9.935869165752283]
3D Gaussian Splatting(3DGS)の復元は、その幾何学的および視覚的忠実さを低下させるスタバボーンフローター(stbborn floater)のアーティファクトに悩まされている。
最終的な外観レンダリングから幾何正規化を分離する新しいフレームワークであるStableGSを提案する。
複数のベンチマークの実験では、StableGSはフローターを除去するだけでなく、一般的なぼやけたアーチファクトのトレードオフも解決している。
論文 参考訳(メタデータ) (2025-03-24T09:02:51Z) - Point Cloud Denoising With Fine-Granularity Dynamic Graph Convolutional Networks [58.050130177241186]
ノイズの摂動は、しばしば3次元の点雲を破損させ、表面の再構成、レンダリング、さらなる処理といった下流のタスクを妨げる。
本稿では,GDGCNと呼ばれる粒度動的グラフ畳み込みネットワークについて紹介する。
論文 参考訳(メタデータ) (2024-11-21T14:19:32Z) - GeoDTR+: Toward generic cross-view geolocalization via geometric disentanglement [20.346145927174373]
Cross-View Geo-Localization (CVGL) は、データベース内のジオタグ付き空中画像とマッチングすることで、地上画像の位置を推定する。
既存の手法は、トレーニングデータとテストデータが完全に異なる領域から取得されるクロスエリア評価において、依然としてパフォーマンスの低下に悩まされている。
視覚的特徴の幾何学的レイアウトを抽出する能力の欠如と,低レベルの細部への過度な適合が原因と考えられる。
本研究では,視覚的特徴間の相関をモデル化する拡張GLEモジュールを用いたGeoDTR+を提案する。
論文 参考訳(メタデータ) (2023-08-18T15:32:01Z) - Geometry Constrained Weakly Supervised Object Localization [55.17224813345206]
弱教師付きオブジェクトローカライゼーションのための幾何制約付きネットワークであるGC-Netを提案する。
検出器は、幾何学的形状を記述する係数の集合によって定義された物体の位置を予測する。
ジェネレータは、得られたマスクされた画像を入力として、オブジェクトとバックグラウンドの2つの補完的な分類タスクを実行する。
従来のアプローチとは対照的に、GC-Netはエンドツーエンドでトレーニングされ、後処理なしでオブジェクトの位置を予測する。
論文 参考訳(メタデータ) (2020-07-19T17:33:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。