論文の概要: Cross-View Image Set Geo-Localization
- arxiv url: http://arxiv.org/abs/2412.18852v1
- Date: Wed, 25 Dec 2024 09:46:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:26:37.696841
- Title: Cross-View Image Set Geo-Localization
- Title(参考訳): クロスビュー画像セットジオローカライゼーション
- Authors: Qiong Wu, Panwang Xia, Lei Yu, Yi Liu, Mingtao Xiong, Liheng Zhong, Jingdong Chen, Ming Yang, Yongjun Zhang, Yi Wan,
- Abstract要約: クロスビュージオローカライゼーション(CVGL)はロボットナビゲーションや拡張現実といった分野に広く応用されている。
そこで我々は, 多様な視点で複数の画像を収集し, ローカライズのためのクエリセットとして, クロスビュー画像セットジオローカライズ(Set-CVGL)を提案する。
- 参考スコア(独自算出の注目度): 29.13525096798705
- License:
- Abstract: Cross-view geo-localization (CVGL) has been widely applied in fields such as robotic navigation and augmented reality. Existing approaches primarily use single images or fixed-view image sequences as queries, which limits perspective diversity. In contrast, when humans determine their location visually, they typically move around to gather multiple perspectives. This behavior suggests that integrating diverse visual cues can improve geo-localization reliability. Therefore, we propose a novel task: Cross-View Image Set Geo-Localization (Set-CVGL), which gathers multiple images with diverse perspectives as a query set for localization. To support this task, we introduce SetVL-480K, a benchmark comprising 480,000 ground images captured worldwide and their corresponding satellite images, with each satellite image corresponds to an average of 40 ground images from varied perspectives and locations. Furthermore, we propose FlexGeo, a flexible method designed for Set-CVGL that can also adapt to single-image and image-sequence inputs. FlexGeo includes two key modules: the Similarity-guided Feature Fuser (SFF), which adaptively fuses image features without prior content dependency, and the Individual-level Attributes Learner (IAL), leveraging geo-attributes of each image for comprehensive scene perception. FlexGeo consistently outperforms existing methods on SetVL-480K and two public datasets, SeqGeo and KITTI-CVL, achieving a localization accuracy improvement of over 22% on SetVL-480K.
- Abstract(参考訳): クロスビュージオローカライゼーション(CVGL)はロボットナビゲーションや拡張現実といった分野に広く応用されている。
既存のアプローチでは、主に単一のイメージまたは固定ビューイメージシーケンスをクエリとして使用し、パースペクティブの多様性を制限する。
対照的に、人間が自分の位置を視覚的に決定すると、通常、動き回って複数の視点を収集する。
この行動は、多様な視覚的手がかりを統合することで、地理的局所化の信頼性を向上させることを示唆している。
そこで本研究では,多様な視点で複数の画像を収集し,局所化のためのクエリセットとして,クロスビュー画像セットジオローカライズ(Set-CVGL)を提案する。
この課題を支援するために,世界中の480,000の地上画像とそれに対応する衛星画像からなるベンチマークであるSetVL-480Kを紹介した。
さらに,Set-CVGL用に設計されたフレキシブルなFlexGeoを提案する。
FlexGeoには2つの重要なモジュールが含まれている。SFF(Simisity-guided Feature Fuser)は、事前のコンテンツ依存なしに画像機能を適応的にフューズする。
FlexGeoは、SetVL-480Kと2つの公開データセットであるSeqGeoとKITTI-CVLの既存の手法を一貫して上回り、SetVL-480Kのローカライゼーション精度を22%以上向上させた。
関連論文リスト
- VAGeo: View-specific Attention for Cross-View Object Geo-Localization [19.4845592498138]
クロスビューオブジェクトジオローカライゼーション(CVOGL)は、衛星画像内の捕獲された地上画像やドローン画像への関心の対象を見つけることを目的としている。
本稿では,正確なCVOGLのためのビュー固有アテンションジオローカライズ手法(VAGeo)を提案する。
論文 参考訳(メタデータ) (2025-01-13T10:42:18Z) - CV-Cities: Advancing Cross-View Geo-Localization in Global Cities [3.074201632920997]
クロスビュージオローカライゼーション(CVGL)は、地上画像の地理的位置を決定するために衛星画像のマッチングと検索を行う。
この課題は, 視点の相違, 局所化シナリオの複雑化, グローバルなローカライゼーションの必要性など, 重大な課題に直面している。
本稿では,基本モデルであるDINOv2と高度な機能ミキサーを統合した新しいCVGLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-19T11:41:22Z) - Swarm Intelligence in Geo-Localization: A Multi-Agent Large Vision-Language Model Collaborative Framework [51.26566634946208]
smileGeoは、新しい視覚的ジオローカライゼーションフレームワークである。
エージェント間のコミュニケーションによって、SmithGeoはこれらのエージェントの固有の知識と、検索された情報を統合する。
その結果,本手法は現在の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2024-08-21T03:31:30Z) - G3: An Effective and Adaptive Framework for Worldwide Geolocalization Using Large Multi-Modality Models [40.69217368870192]
我々は、レトリーバル拡張世代(RAG)に基づく世界規模の地理的ローカライゼーションのための新しい枠組みを提案する。
G3は、ジオアライメント、ジオディバーシフィケーション、ジオビジュアライゼーションの3つのステップから構成される。
2つの確立されたデータセットの実験は、他の最先端手法と比較してG3の優位性を検証する。
論文 参考訳(メタデータ) (2024-05-23T15:37:06Z) - ConGeo: Robust Cross-view Geo-localization across Ground View Variations [34.192775134189965]
クロスビューなジオローカライゼーションは,地上レベルのクエリイメージを対応するジオレファレンスな空中ビューとマッチングすることで,ローカライズすることを目的としている。
既存の学習パイプラインはオリエンテーションに特化しているか、FoVに特化している。
本研究では,地形定位のためのコントラスト法であるConGeoを提案する。
論文 参考訳(メタデータ) (2024-03-20T20:37:13Z) - GeoCLIP: Clip-Inspired Alignment between Locations and Images for
Effective Worldwide Geo-localization [61.10806364001535]
世界規模のジオローカライゼーションは、地球上のどこでも撮影された画像の正確な位置を特定することを目的としている。
既存のアプローチは、地球を離散的な地理的細胞に分割し、問題を分類タスクに変換する。
画像と対応するGPS位置のアライメントを強制する新しいCLIPにインスパイアされた画像-GPS検索手法であるGeoCLIPを提案する。
論文 参考訳(メタデータ) (2023-09-27T20:54:56Z) - CSP: Self-Supervised Contrastive Spatial Pre-Training for
Geospatial-Visual Representations [90.50864830038202]
ジオタグ付き画像の自己教師型学習フレームワークであるContrastive Spatial Pre-Training(CSP)を提案する。
デュアルエンコーダを用いて画像とその対応する位置情報を別々に符号化し、コントラスト目的を用いて画像から効果的な位置表現を学習する。
CSPは、様々なラベル付きトレーニングデータサンプリング比と10~34%の相対的な改善で、モデル性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-01T23:11:18Z) - Where We Are and What We're Looking At: Query Based Worldwide Image
Geo-localization Using Hierarchies and Scenes [53.53712888703834]
地理的レベルの異なる関係を利用して、エンドツーエンドのトランスフォーマーベースのアーキテクチャを導入する。
4つの標準ジオローカライゼーションデータセット上で,アートストリートレベルの精度を実現する。
論文 参考訳(メタデータ) (2023-03-07T21:47:58Z) - GAMa: Cross-view Video Geo-localization [68.33955764543465]
我々は、文脈的手がかりを提供する画像ではなく、地上ビデオに焦点を当てている。
クリップレベルでは、短いビデオクリップと対応する空中画像が一致し、後に長いビデオの動画レベルのジオローカライズを得るために使用される。
提案手法は,トップ1リコール率19.4%,45.1%@1.0マイルを達成する。
論文 参考訳(メタデータ) (2022-07-06T04:25:51Z) - Where in the World is this Image? Transformer-based Geo-localization in
the Wild [48.69031054573838]
世界各地で撮影された地上レベルのRGB画像から地理的位置(ジオローカライゼーション)を予測することは、非常に難しい問題です。
画像全体の細部を網羅する統合型デュアルブランチトランスネットワークであるTransLocatorを提案する。
我々は、Im2GPS、Im2GPS3k、YFCC4k、YFCC26kの4つのベンチマークデータセットでTransLocatorを評価し、5.5%、14.1%、4.9%、9.9%の大陸レベルの精度改善を得た。
論文 参考訳(メタデータ) (2022-04-29T03:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。