論文の概要: From Satellite to Street: A Hybrid Framework Integrating Stable Diffusion and PanoGAN for Consistent Cross-View Synthesis
- arxiv url: http://arxiv.org/abs/2509.24369v1
- Date: Mon, 29 Sep 2025 07:14:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.808709
- Title: From Satellite to Street: A Hybrid Framework Integrating Stable Diffusion and PanoGAN for Consistent Cross-View Synthesis
- Title(参考訳): 衛星から街路へ: 安定拡散とパノGANを融合した一貫したクロスビュー合成のためのハイブリッドフレームワーク
- Authors: Khawlah Bajbaa, Abbas Anwar, Muhammad Saqib, Hafeez Anwar, Nabin Sharma, Muhammad Usman,
- Abstract要約: 本稿では,衛星画像からストリートビュー画像を生成するために,拡散モデルと条件付き生成対向ネットワークを統合したハイブリッドフレームワークを提案する。
このフレームワークは、きめ細かい局所的な詳細を保存しながら、現実的で幾何学的に一貫したストリートビュー画像を生成することに成功した。
- 参考スコア(独自算出の注目度): 3.2018357347625037
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Street view imagery has become an essential source for geospatial data collection and urban analytics, enabling the extraction of valuable insights that support informed decision-making. However, synthesizing street-view images from corresponding satellite imagery presents significant challenges due to substantial differences in appearance and viewing perspective between these two domains. This paper presents a hybrid framework that integrates diffusion-based models and conditional generative adversarial networks to generate geographically consistent street-view images from satellite imagery. Our approach uses a multi-stage training strategy that incorporates Stable Diffusion as the core component within a dual-branch architecture. To enhance the framework's capabilities, we integrate a conditional Generative Adversarial Network (GAN) that enables the generation of geographically consistent panoramic street views. Furthermore, we implement a fusion strategy that leverages the strengths of both models to create robust representations, thereby improving the geometric consistency and visual quality of the generated street-view images. The proposed framework is evaluated on the challenging Cross-View USA (CVUSA) dataset, a standard benchmark for cross-view image synthesis. Experimental results demonstrate that our hybrid approach outperforms diffusion-only methods across multiple evaluation metrics and achieves competitive performance compared to state-of-the-art GAN-based methods. The framework successfully generates realistic and geometrically consistent street-view images while preserving fine-grained local details, including street markings, secondary roads, and atmospheric elements such as clouds.
- Abstract(参考訳): ストリートビュー画像は地理空間データ収集や都市分析に欠かせない情報源となり、情報的意思決定を支援する貴重な洞察の抽出を可能にしている。
しかし,衛星画像からのストリートビュー画像の合成は,両領域間の外観や視界の相違により,大きな課題を呈している。
本稿では,衛星画像から地理的に一貫したストリートビュー画像を生成するために,拡散モデルと条件付き生成敵ネットワークを統合したハイブリッドフレームワークを提案する。
このアプローチでは、デュアルブランチアーキテクチャの中核コンポーネントとして、安定拡散を組み込んだマルチステージトレーニング戦略を採用しています。
フレームワークの能力を高めるために,地理的に一貫したパノラマストリートビューの生成を可能にする条件付きジェネレーティブ・アディバーショナル・ネットワーク(GAN)を統合する。
さらに,両モデルの強みを活用してロバストな表現を創出し,生成したストリートビュー画像の幾何的一貫性と視覚的品質を向上させる融合戦略を実装した。
提案するフレームワークは、クロスビュー画像合成の標準ベンチマークであるCVUSAデータセット(Cross-View USA)を用いて評価される。
実験の結果, ハイブリッド手法は, 複数の評価指標の拡散のみの手法よりも優れ, 最先端のGAN手法と比較して競争性能が向上していることがわかった。
このフレームワークは、ストリートマーキング、二次道路、雲のような大気要素を含むきめ細かい局部的な詳細を保存しながら、現実的で幾何学的に一貫したストリートビュー画像を生成することに成功した。
関連論文リスト
- Geometry-guided Cross-view Diffusion for One-to-many Cross-view Image Synthesis [48.945931374180795]
本稿では,対応する衛星画像から可視な地上画像を生成することを目的とした,クロスビュー合成のための新しいアプローチを提案する。
これらの課題を衛星間(Sat2Grd)と地上間(Grd2Sat)合成と呼ぶ。
論文 参考訳(メタデータ) (2024-12-04T13:47:51Z) - CrossViewDiff: A Cross-View Diffusion Model for Satellite-to-Street View Synthesis [54.852701978617056]
CrossViewDiffは、衛星間ビュー合成のためのクロスビュー拡散モデルである。
ビュー間の大きな相違による課題に対処するため、衛星シーン構造推定とクロスプラットフォームテクスチャマッピングモジュールを設計する。
合成結果のより包括的な評価を実現するため,GPTに基づくスコアリング手法を設計する。
論文 参考訳(メタデータ) (2024-08-27T03:41:44Z) - Leveraging BEV Paradigm for Ground-to-Aerial Image Synthesis [39.43518544801439]
地上から地上への画像合成は、対応する地上の景観画像から現実的な空中画像を生成することに焦点を当てている。
本研究では,ストリートビュー画像から航空画像を合成する新しいクロスビュー生成手法であるSkyDiffusionを紹介する。
地上から地上までの多様な画像合成用途のために設計された新しいデータセット「Ground2Aerial-3」を紹介した。
論文 参考訳(メタデータ) (2024-08-03T15:43:56Z) - Layered Rendering Diffusion Model for Controllable Zero-Shot Image Synthesis [15.76266032768078]
本稿では,テキストクエリに依存する拡散モデルにおける空間制御性向上のための革新的な手法を提案する。
まず、摂動分布の基本的な空間的キューとして視覚誘導を導入する。
本稿では,複数のレイヤからなる画像レンダリングプロセスを構築する汎用フレームワークであるLayered Rendering Diffusion (LRDiff)を提案する。
論文 参考訳(メタデータ) (2023-11-30T10:36:19Z) - Multi-Spectral Image Stitching via Spatial Graph Reasoning [52.27796682972484]
空間グラフ推論に基づくマルチスペクトル画像縫合法を提案する。
同一のビュー位置から複数スケールの補完機能をノードに埋め込む。
空間的・チャネル的次元に沿った長距離コヒーレンスを導入することにより、画素関係の相補性とチャネル相互依存性は、整列したマルチビュー特徴の再構築に寄与する。
論文 参考訳(メタデータ) (2023-07-31T15:04:52Z) - Cross-View Panorama Image Synthesis [68.35351563852335]
PanoGANは、新しい敵対的フィードバックGANフレームワークである。
PanoGANは、最先端のアプローチよりもより説得力のある、高品質なパノラマ画像生成を可能にする。
論文 参考訳(メタデータ) (2022-03-22T15:59:44Z) - Coming Down to Earth: Satellite-to-Street View Synthesis for
Geo-Localization [9.333087475006003]
クロスビュー画像に基づくジオローカライズは,この2つの領域間の視野と外観の違いから,非常に困難である。
衛星入力からリアルなストリートビューを合成することで,この不一致を明示的に解決できることを示す。
本稿では,画像合成と検索を共同で行うマルチタスクアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-11T17:40:59Z) - Geometry-Guided Street-View Panorama Synthesis from Satellite Imagery [80.6282101835164]
オーバヘッド衛星画像から新しいストリートビューパノラマを合成するための新しいアプローチを提案する。
本手法は,googleの全方位ストリートビュー型パノラマを,衛星パッチの中央と同じ地理的位置から取得したかのように生成する。
論文 参考訳(メタデータ) (2021-03-02T10:27:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。