論文の概要: Object Detection as an Optional Basis: A Graph Matching Network for Cross-View UAV Localization
- arxiv url: http://arxiv.org/abs/2511.02489v1
- Date: Tue, 04 Nov 2025 11:25:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.970757
- Title: Object Detection as an Optional Basis: A Graph Matching Network for Cross-View UAV Localization
- Title(参考訳): オプション基底としてのオブジェクト検出: クロスビューUAVローカライゼーションのためのグラフマッチングネットワーク
- Authors: Tao Liu, Kan Ren, Qian Chen,
- Abstract要約: 本稿では,対象物検出によるマップマッチングを行うUAVローカライゼーションフレームワークを提案する。
典型的なパイプラインでは、UAVの視覚的ローカライゼーションは画像検索の問題として定式化されている。
本手法は, グラフベースノード類似度測定法を用いて, 高精度な検索とローカライズ性能を実現する。
- 参考スコア(独自算出の注目度): 17.908597896653045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid growth of the low-altitude economy, UAVs have become crucial for measurement and tracking in patrol systems. However, in GNSS-denied areas, satellite-based localization methods are prone to failure. This paper presents a cross-view UAV localization framework that performs map matching via object detection, aimed at effectively addressing cross-temporal, cross-view, heterogeneous aerial image matching. In typical pipelines, UAV visual localization is formulated as an image-retrieval problem: features are extracted to build a localization map, and the pose of a query image is estimated by matching it to a reference database with known poses. Because publicly available UAV localization datasets are limited, many approaches recast localization as a classification task and rely on scene labels in these datasets to ensure accuracy. Other methods seek to reduce cross-domain differences using polar-coordinate reprojection, perspective transformations, or generative adversarial networks; however, they can suffer from misalignment, content loss, and limited realism. In contrast, we leverage modern object detection to accurately extract salient instances from UAV and satellite images, and integrate a graph neural network to reason about inter-image and intra-image node relationships. Using a fine-grained, graph-based node-similarity metric, our method achieves strong retrieval and localization performance. Extensive experiments on public and real-world datasets show that our approach handles heterogeneous appearance differences effectively and generalizes well, making it applicable to scenarios with larger modality gaps, such as infrared-visible image matching. Our dataset will be publicly available at the following URL: https://github.com/liutao23/ODGNNLoc.git.
- Abstract(参考訳): 低高度経済の急速な成長に伴い、UAVはパトロールシステムにおける計測と追跡に欠かせないものとなっている。
しかし、GNSSの領域では、衛星ベースのローカライゼーション手法は故障しがちである。
本稿では, 時間的, 横断的, 不均質な航空画像マッチングを効果的に扱うことを目的とした, 物体検出による地図マッチングを実現する, クロスビューUAVローカライゼーションフレームワークを提案する。
典型的なパイプラインでは、UAVの視覚的ローカライゼーションは画像検索の問題として定式化され、特徴を抽出してローカライゼーションマップを構築し、クエリ画像のポーズを既知のポーズで参照データベースにマッチングすることで推定する。
公開可能なUAVローカライゼーションデータセットは限られているため、多くのアプローチでは、ローカライゼーションを分類タスクとして再放送し、これらのデータセットのシーンラベルに依存して精度を保証する。
他の方法は、極座標的再射、視点変換、あるいは生成的敵ネットワークを用いて、ドメイン間の差異を減らそうとするが、それらは誤った調整、コンテンツ損失、制限された現実主義に悩まされる。
対照的に、現代の物体検出を活用して、UAVと衛星画像から正常なインスタンスを正確に抽出し、グラフニューラルネットワークを統合して、画像間および画像内ノード間の関係を推論する。
本手法は,グラフベースノード類似度計を用いて,高い検索性能と局所化性能を実現する。
公開および実世界のデータセットに対する大規模な実験により、我々のアプローチは不均一な外観差を効果的に処理し、一般化し、赤外線可視画像マッチングのような、より大きなモダリティギャップを持つシナリオに適用できることを示した。
私たちのデータセットは、以下のURLで公開されます。
関連論文リスト
- OrthoLoC: UAV 6-DoF Localization and Calibration Using Orthographic Geodata [45.03897051444244]
我々はドイツとアメリカ合衆国から16,425個のUAV画像からなる最初の大規模データセットOrthoLoCを提案する。
データセットは、UAV画像と地理空間データのドメインシフトに対処する。
我々はAdHoPと呼ばれる改良手法を導入し、任意の特徴マッチングと統合でき、マッチングを最大95%改善し、翻訳エラーを最大63%削減できる。
論文 参考訳(メタデータ) (2025-09-22T19:22:32Z) - Hierarchical Image Matching for UAV Absolute Visual Localization via Semantic and Structural Constraints [10.639191465547517]
無人航空機(UAV)には絶対的な位置決めが不可欠であるが、グローバルナビゲーション衛星システム(GNSS)信号が利用できない場合には困難である。
視線に基づく絶対的位置決め手法は、UAVの現在の視界を基準衛星マップで推定し、その位置を推定する手法として人気を博している。
既存の手法は主に従来の画像マッチングと低レベルの画像マッチングに依存しており、ソース間の相違や時間的変動による大きな違いによって困難に悩まされている。
セマンティック・アウェアと統合したUAV絶対位置推定のための階層的クロスソース画像マッチング手法を提案する。
論文 参考訳(メタデータ) (2025-06-11T13:53:03Z) - Breaking the Frame: Visual Place Recognition by Overlap Prediction [53.17564423756082]
本稿では,重なり合う予測に基づく新しい視覚的位置認識手法 VOP を提案する。
VOPは、Vision Transformerのバックボーンを使用してパッチレベルの埋め込みを取得することで、コビジュアブルなイメージセクションを進める。
提案手法では,データベース画像の重複点の評価に投票機構を用いる。
論文 参考訳(メタデータ) (2024-06-23T20:00:20Z) - Deep Homography Estimation for Visual Place Recognition [49.235432979736395]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - Visual Cross-View Metric Localization with Dense Uncertainty Estimates [11.76638109321532]
本研究は、屋外ロボティクスにおける視覚的クロスビューメトリックローカライゼーションに対処する。
地上レベルのカラー画像と局地的な環境を含む衛星パッチが与えられた場合、衛星パッチ内の地上カメラの位置を特定することが課題である。
我々は、より高密度な衛星記述子、ボトルネックにおける類似性マッチング、およびマルチモーダルなローカライゼーションの曖昧さを捉えるための出力としての密度空間分布を備えた新しいネットワークアーキテクチャを考案した。
論文 参考訳(メタデータ) (2022-08-17T20:12:23Z) - Vision-Based UAV Self-Positioning in Low-Altitude Urban Environments [20.69412701553767]
無人航空機(UAV)は安定した位置決めのために衛星システムに依存している。
このような状況下では、視覚に基づく技術が代替手段として機能し、UAVの自己配置能力を確実にする。
本稿では,UAV自己配置タスク用に設計された最初の公開データセットであるDenseUAVを提案する。
論文 参考訳(メタデータ) (2022-01-23T07:18:55Z) - Learning Hierarchical Graph Representation for Image Manipulation
Detection [50.04902159383709]
画像操作検出の目的は、画像内の操作された領域を特定し、特定することである。
最近のアプローチでは、画像に残っている改ざんするアーティファクトをキャプチャするために、洗練された畳み込みニューラルネットワーク(CNN)が採用されている。
本稿では2つの並列分岐からなる階層型グラフ畳み込みネットワーク(HGCN-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-15T01:54:25Z) - Graph Sampling Based Deep Metric Learning for Generalizable Person
Re-Identification [114.56752624945142]
我々は、最も一般的なランダムサンプリング手法である有名なpkサンプリングは、深層メトリック学習にとって有益で効率的ではないと主張する。
大規模計量学習のためのグラフサンプリング(GS)と呼ばれる効率的なミニバッチサンプリング手法を提案する。
論文 参考訳(メタデータ) (2021-04-04T06:44:15Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。