論文の概要: Coming Down to Earth: Satellite-to-Street View Synthesis for
Geo-Localization
- arxiv url: http://arxiv.org/abs/2103.06818v1
- Date: Thu, 11 Mar 2021 17:40:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 14:43:10.242690
- Title: Coming Down to Earth: Satellite-to-Street View Synthesis for
Geo-Localization
- Title(参考訳): 地球に降りる:衛星からストリートビューへの地殻変動の合成
- Authors: Aysim Toker, Qunjie Zhou, Maxim Maximov and Laura Leal-Taix\'e
- Abstract要約: クロスビュー画像に基づくジオローカライズは,この2つの領域間の視野と外観の違いから,非常に困難である。
衛星入力からリアルなストリートビューを合成することで,この不一致を明示的に解決できることを示す。
本稿では,画像合成と検索を共同で行うマルチタスクアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 9.333087475006003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of cross-view image based geo-localization is to determine the
location of a given street view image by matching it against a collection of
geo-tagged satellite images. This task is notoriously challenging due to the
drastic viewpoint and appearance differences between the two domains. We show
that we can address this discrepancy explicitly by learning to synthesize
realistic street views from satellite inputs. Following this observation, we
propose a novel multi-task architecture in which image synthesis and retrieval
are considered jointly. The rationale behind this is that we can bias our
network to learn latent feature representations that are useful for retrieval
if we utilize them to generate images across the two input domains. To the best
of our knowledge, ours is the first approach that creates realistic street
views from satellite images and localizes the corresponding query street-view
simultaneously in an end-to-end manner. In our experiments, we obtain
state-of-the-art performance on the CVUSA and CVACT benchmarks. Finally, we
show compelling qualitative results for satellite-to-street view synthesis.
- Abstract(参考訳): クロスビュー画像に基づくジオローカライゼーションの目的は、ジオタグ付き衛星画像の集合とマッチングすることで、所定のストリートビュー画像の位置を決定することである。
この課題は、両ドメイン間の劇的な視点と外見の違いから、非常に難しい。
衛星入力からリアルなストリートビューを合成することで,この不一致を明示的に解決できることを示す。
そこで本研究では,画像合成と検索を共同で検討する,新しいマルチタスクアーキテクチャを提案する。
この背景にある根拠は、2つの入力領域にまたがって画像を生成するのに使用すれば、検索に有用な潜在的な特徴表現を学習するためにネットワークをバイアスできるということです。
私たちの知る限りでは、衛星画像から現実的なストリートビューを作成し、対応するクエリストリートビューをエンドツーエンドで同時にローカライズする最初のアプローチです。
本実験では,CVUSAおよびCVACTベンチマークの最先端性能について検討した。
最後に,衛星・ストリートビュー合成の質的な結果を示す。
関連論文リスト
- Weakly-supervised Camera Localization by Ground-to-satellite Image Registration [52.54992898069471]
本稿では,地対衛星画像登録のための弱教師付き学習戦略を提案する。
地上画像ごとに正の衛星画像と負の衛星画像を導き出す。
また,クロスビュー画像の相対回転推定のための自己超越戦略を提案する。
論文 参考訳(メタデータ) (2024-09-10T12:57:16Z) - CrossViewDiff: A Cross-View Diffusion Model for Satellite-to-Street View Synthesis [54.852701978617056]
CrossViewDiffは、衛星間ビュー合成のためのクロスビュー拡散モデルである。
ビュー間の大きな相違による課題に対処するため、衛星シーン構造推定とクロスプラットフォームテクスチャマッピングモジュールを設計する。
合成結果のより包括的な評価を実現するため,GPTに基づくスコアリング手法を設計する。
論文 参考訳(メタデータ) (2024-08-27T03:41:44Z) - Cross-view image geo-localization with Panorama-BEV Co-Retrieval Network [12.692812966686066]
クロスビュージオローカライゼーションは、地理参照衛星データベースとマッチングすることで、ストリートビュー画像の地理的位置を識別する。
そこで我々は,パノラマBEVコレトリヴァルネットワーク(Panorama-BEV Co-Retrieval Network)という,クロスビュー画像のジオローカライズのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-10T08:03:58Z) - Geospecific View Generation -- Geometry-Context Aware High-resolution Ground View Inference from Satellite Views [5.146618378243241]
多視点衛星画像から弱い幾何学やテクスチャを最大限に尊重するジオ特殊ビューを生成するための新しいパイプラインを提案する。
本手法は,衛星画像からの包括的情報を用いて,位置の地上画像を直接予測する。
我々のパイプラインは、衛星画像のみに基づいて、実物に近い地上ビューを初めて生成したものであることを実証する。
論文 参考訳(メタデータ) (2024-07-10T21:51:50Z) - Bird's-Eye View to Street-View: A Survey [16.90516098120805]
衛星画像からストリートビュー画像がどのように合成されるのかを概観するため、20の最近の研究論文をレビューした。
主な発見は, (i) より現実的で正確なストリートビュー画像の合成に新しいディープラーニング技術が必要であること, (ii) 公共利用のためにより多くのデータセットを収集する必要があること, (iii) 生成された画像を適切に評価するためには,より具体的な評価指標を検討する必要があること,である。
論文 参考訳(メタデータ) (2024-05-14T21:01:12Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - CVLNet: Cross-View Semantic Correspondence Learning for Video-based
Camera Localization [89.69214577915959]
本稿では,クロスビューカメラのローカライゼーション問題に対処する。
本稿では、類似性マッチングの前に、問合せカメラの衛星画像に対する相対変位を推定する。
実験は、単一の画像に基づく位置決めよりもビデオベースの位置決めの有効性を実証した。
論文 参考訳(メタデータ) (2022-08-07T07:35:17Z) - Geo-Localization via Ground-to-Satellite Cross-View Image Retrieval [25.93015219830576]
ランドマークの地平面画像から,衛星視画像の検索により地理空間のクロスビュー化を図っている。
我々は、地上視と衛星視の橋渡しとして、ドローン視情報を利用する。
論文 参考訳(メタデータ) (2022-05-22T17:35:13Z) - Accurate 3-DoF Camera Geo-Localization via Ground-to-Satellite Image
Matching [102.39635336450262]
地上で取得したクエリ画像とジオタグ付き衛星画像の大規模データベースとをマッチングすることにより、地上から衛星画像のジオローカライズの問題に対処する。
我々の新しい手法は、衛星画像のピクセルサイズの精度まで、クエリー画像のきめ細かい位置を達成できる。
論文 参考訳(メタデータ) (2022-03-26T20:10:38Z) - Geometry-Guided Street-View Panorama Synthesis from Satellite Imagery [80.6282101835164]
オーバヘッド衛星画像から新しいストリートビューパノラマを合成するための新しいアプローチを提案する。
本手法は,googleの全方位ストリートビュー型パノラマを,衛星パッチの中央と同じ地理的位置から取得したかのように生成する。
論文 参考訳(メタデータ) (2021-03-02T10:27:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。