論文の概要: Geo-Localization via Ground-to-Satellite Cross-View Image Retrieval
- arxiv url: http://arxiv.org/abs/2205.10878v1
- Date: Sun, 22 May 2022 17:35:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 18:13:17.289315
- Title: Geo-Localization via Ground-to-Satellite Cross-View Image Retrieval
- Title(参考訳): 地上-衛星間画像検索による地形解析
- Authors: Zelong Zeng, Zheng Wang, Fan Yang, Shin'ichi Satoh
- Abstract要約: ランドマークの地平面画像から,衛星視画像の検索により地理空間のクロスビュー化を図っている。
我々は、地上視と衛星視の橋渡しとして、ドローン視情報を利用する。
- 参考スコア(独自算出の注目度): 25.93015219830576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The large variation of viewpoint and irrelevant content around the target
always hinder accurate image retrieval and its subsequent tasks. In this paper,
we investigate an extremely challenging task: given a ground-view image of a
landmark, we aim to achieve cross-view geo-localization by searching out its
corresponding satellite-view images. Specifically, the challenge comes from the
gap between ground-view and satellite-view, which includes not only large
viewpoint changes (some parts of the landmark may be invisible from front view
to top view) but also highly irrelevant background (the target landmark tend to
be hidden in other surrounding buildings), making it difficult to learn a
common representation or a suitable mapping.
To address this issue, we take advantage of drone-view information as a
bridge between ground-view and satellite-view domains. We propose a Peer
Learning and Cross Diffusion (PLCD) framework. PLCD consists of three parts: 1)
a peer learning across ground-view and drone-view to find visible parts to
benefit ground-drone cross-view representation learning; 2) a patch-based
network for satellite-drone cross-view representation learning; 3) a cross
diffusion between ground-drone space and satellite-drone space. Extensive
experiments conducted on the University-Earth and University-Google datasets
show that our method outperforms state-of-the-arts significantly.
- Abstract(参考訳): ターゲット周辺の視点と無関係なコンテンツのばらつきは、常に正確な画像検索とそれに続くタスクを妨げる。
本稿では,ランドマークの地上像を考慮し,対応する衛星画像の探索により地理的な地域化を実現することを目的とした,極めて困難な課題について検討する。
特に、地上視と衛星視のギャップは、大きな視点の変化(ランドマークの一部が正面から上から見えない場合もある)だけでなく、非常に無関係な背景(ターゲットランドマークは周囲の建物に隠されていることが多い)を含むため、共通の表現や適切なマッピングを学ぶことは困難である。
この問題に対処するため、地上視と衛星視の橋渡しとしてドローン視情報を利用する。
本稿では,plcd(peer learning and cross diffusion)フレームワークを提案する。
PLCDは3つの部分から構成される。
1) 地上視とドローン視を通したピアラーニングにより、地上視のクロスビュー学習の便宜を図る。
2) 衛星ドローンによるクロスビュー表現学習のためのパッチベースネットワーク
3)地上ドローン空間と衛星ドローン空間との交差拡散。
University-EarthとUniversity-Googleのデータセットで実施された大規模な実験により、我々の手法は最先端の成果を著しく上回ることがわかった。
関連論文リスト
- Weakly-supervised Camera Localization by Ground-to-satellite Image Registration [52.54992898069471]
本稿では,地対衛星画像登録のための弱教師付き学習戦略を提案する。
地上画像ごとに正の衛星画像と負の衛星画像を導き出す。
また,クロスビュー画像の相対回転推定のための自己超越戦略を提案する。
論文 参考訳(メタデータ) (2024-09-10T12:57:16Z) - CrossViewDiff: A Cross-View Diffusion Model for Satellite-to-Street View Synthesis [54.852701978617056]
CrossViewDiffは、衛星間ビュー合成のためのクロスビュー拡散モデルである。
ビュー間の大きな相違による課題に対処するため、衛星シーン構造推定とクロスプラットフォームテクスチャマッピングモジュールを設計する。
合成結果のより包括的な評価を実現するため,GPTに基づくスコアリング手法を設計する。
論文 参考訳(メタデータ) (2024-08-27T03:41:44Z) - A Semantic Segmentation-guided Approach for Ground-to-Aerial Image Matching [30.324252605889356]
本研究は,GPSデータを使わずに,問合せ地上画像と対応する衛星画像とをマッチングする問題に対処する。
これは地上画像と衛星画像の特徴を比較することで行われ、3ストリームのシームズ様のネットワークを通じて、対応する衛星のセグメンテーションマスクを革新的に活用する。
この新しさは、衛星画像とセマンティックセグメンテーションマスクの融合にあり、モデルが有用な特徴を抽出し、画像の重要な部分に集中できるようにすることを目的としている。
論文 参考訳(メタデータ) (2024-04-17T12:13:18Z) - Sat2Density: Faithful Density Learning from Satellite-Ground Image Pairs [32.4349978810128]
本稿では,衛星と地上画像のペアを用いた衛星画像の正確な3次元形状表現を開発することを目的とする。
そこで我々は,量的ニューラルレンダリングに使用される密度場表現からインスピレーションを得て,Sat2Densityと呼ばれる新しいアプローチを提案する。
本手法は,3次元シーンの忠実な密度場を幾何学的視点で学習するために,空と非スキー領域の地上パノラマの性質を利用する。
論文 参考訳(メタデータ) (2023-03-26T10:15:33Z) - CVLNet: Cross-View Semantic Correspondence Learning for Video-based
Camera Localization [89.69214577915959]
本稿では,クロスビューカメラのローカライゼーション問題に対処する。
本稿では、類似性マッチングの前に、問合せカメラの衛星画像に対する相対変位を推定する。
実験は、単一の画像に基づく位置決めよりもビデオベースの位置決めの有効性を実証した。
論文 参考訳(メタデータ) (2022-08-07T07:35:17Z) - Coming Down to Earth: Satellite-to-Street View Synthesis for
Geo-Localization [9.333087475006003]
クロスビュー画像に基づくジオローカライズは,この2つの領域間の視野と外観の違いから,非常に困難である。
衛星入力からリアルなストリートビューを合成することで,この不一致を明示的に解決できることを示す。
本稿では,画像合成と検索を共同で行うマルチタスクアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-11T17:40:59Z) - Geometry-Guided Street-View Panorama Synthesis from Satellite Imagery [80.6282101835164]
オーバヘッド衛星画像から新しいストリートビューパノラマを合成するための新しいアプローチを提案する。
本手法は,googleの全方位ストリートビュー型パノラマを,衛星パッチの中央と同じ地理的位置から取得したかのように生成する。
論文 参考訳(メタデータ) (2021-03-02T10:27:05Z) - Each Part Matters: Local Patterns Facilitate Cross-view Geo-localization [54.00111565818903]
クロスビューなジオローカライゼーションは、異なるプラットフォームから同じ地理的ターゲットの画像を見つけることである。
既存の手法は通常、画像センター内の地理的ターゲットの微細な特徴をマイニングすることに集中している。
我々は、文脈情報を活用するために、ローカルパターンネットワーク(LPN)と呼ばれるシンプルで効果的なディープニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-08-26T16:06:11Z) - University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization [87.74121935246937]
我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-02-27T15:24:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。