論文の概要: Satellite to GroundScape -- Large-scale Consistent Ground View Generation from Satellite Views
- arxiv url: http://arxiv.org/abs/2504.15786v1
- Date: Tue, 22 Apr 2025 10:58:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 20:53:12.830523
- Title: Satellite to GroundScape -- Large-scale Consistent Ground View Generation from Satellite Views
- Title(参考訳): 衛星から地上まで -衛星から見た大規模一貫した地上ビュー-
- Authors: Ningli Xu, Rongjun Qin,
- Abstract要約: 本研究では,衛星ビューから生成された地上画像間の整合性を確保するために,新しいクロスビュー合成手法を提案する。
本手法は, 固定潜時拡散モデルに基づいて, 衛星誘導復調法と衛星時変復調法という2つの条件付きモジュールを導入する。
大規模な衛星地上データセットを10万対以上の視点で提供し,広範囲な地上環境や映像生成を容易にする。
- 参考スコア(独自算出の注目度): 5.146618378243241
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating consistent ground-view images from satellite imagery is challenging, primarily due to the large discrepancies in viewing angles and resolution between satellite and ground-level domains. Previous efforts mainly concentrated on single-view generation, often resulting in inconsistencies across neighboring ground views. In this work, we propose a novel cross-view synthesis approach designed to overcome these challenges by ensuring consistency across ground-view images generated from satellite views. Our method, based on a fixed latent diffusion model, introduces two conditioning modules: satellite-guided denoising, which extracts high-level scene layout to guide the denoising process, and satellite-temporal denoising, which captures camera motion to maintain consistency across multiple generated views. We further contribute a large-scale satellite-ground dataset containing over 100,000 perspective pairs to facilitate extensive ground scene or video generation. Experimental results demonstrate that our approach outperforms existing methods on perceptual and temporal metrics, achieving high photorealism and consistency in multi-view outputs.
- Abstract(参考訳): 衛星画像から一貫した地上画像を生成することは、主に衛星と地上レベルの領域の視角と解像度の大きな違いのために困難である。
それまでの努力は主に単一ビュー生成に集中しており、しばしば近隣の地上ビューに矛盾が生じていた。
本研究では,衛星ビューから生成された地上画像間の整合性を確保することで,これらの課題を克服するための新しいクロスビュー合成手法を提案する。
固定潜時拡散モデルに基づく手法では,高レベルなシーンレイアウトを抽出してデノナイジングを誘導する衛星誘導デノナイジングと,複数の生成されたビュー間の一貫性を維持するためにカメラの動きをキャプチャする衛星時間デノナイジングという2つの条件付きモジュールを導入している。
さらに、大規模な衛星地上データセットに10万以上の視点ペアを組み、広範囲な地上シーンや映像生成を容易にする。
実験結果から,本手法は知覚的・時間的指標の既存手法よりも優れ,多視点出力における高光写実性や一貫性を実現していることが示された。
関連論文リスト
- Geometry-guided Cross-view Diffusion for One-to-many Cross-view Image Synthesis [48.945931374180795]
本稿では,対応する衛星画像から可視な地上画像を生成することを目的とした,クロスビュー合成のための新しいアプローチを提案する。
これらの課題を衛星間(Sat2Grd)と地上間(Grd2Sat)合成と呼ぶ。
論文 参考訳(メタデータ) (2024-12-04T13:47:51Z) - Horizon-GS: Unified 3D Gaussian Splatting for Large-Scale Aerial-to-Ground Scenes [55.15494682493422]
本稿では,ガウシアン・スプレイティング技術に基づく新しい手法であるHorizon-GSを導入し,航空やストリートビューの統一的な再構築とレンダリングに挑戦する。
提案手法は,これらの視点と新たなトレーニング戦略を組み合わせることによる重要な課題に対処し,視点の相違を克服し,高忠実度シーンを生成する。
論文 参考訳(メタデータ) (2024-12-02T17:42:00Z) - CrossViewDiff: A Cross-View Diffusion Model for Satellite-to-Street View Synthesis [54.852701978617056]
CrossViewDiffは、衛星間ビュー合成のためのクロスビュー拡散モデルである。
ビュー間の大きな相違による課題に対処するため、衛星シーン構造推定とクロスプラットフォームテクスチャマッピングモジュールを設計する。
合成結果のより包括的な評価を実現するため,GPTに基づくスコアリング手法を設計する。
論文 参考訳(メタデータ) (2024-08-27T03:41:44Z) - Geospecific View Generation -- Geometry-Context Aware High-resolution Ground View Inference from Satellite Views [5.146618378243241]
多視点衛星画像から弱い幾何学やテクスチャを最大限に尊重するジオ特殊ビューを生成するための新しいパイプラインを提案する。
本手法は,衛星画像からの包括的情報を用いて,位置の地上画像を直接予測する。
我々のパイプラインは、衛星画像のみに基づいて、実物に近い地上ビューを初めて生成したものであることを実証する。
論文 参考訳(メタデータ) (2024-07-10T21:51:50Z) - Addressing single object tracking in satellite imagery through prompt-engineered solutions [2.098136587906041]
衛星映像における小型物体の学習自由点追跡手法を提案する。
我々の戦略は、リモートセンシングアプリケーションにおける衛星画像に適したロバストな追跡ソリューションの大幅な進歩を示している。
論文 参考訳(メタデータ) (2024-07-07T23:50:29Z) - SatDiffMoE: A Mixture of Estimation Method for Satellite Image Super-resolution with Latent Diffusion Models [3.839322642354617]
我々はtextbfSatDiffMoE と呼ばれる新しい拡散型融合アルゴリズムを提案する。
アルゴリズムは非常に柔軟で、任意の数の低解像度画像のトレーニングと推測が可能である。
実験の結果,SatDiffMoE法は衛星画像の超解像処理に優れていた。
論文 参考訳(メタデータ) (2024-06-14T17:58:28Z) - Reconstructing Satellites in 3D from Amateur Telescope Images [44.20773507571372]
本稿では,ハイブリッド画像前処理パイプラインを統合することで,障害を克服する新しい計算イメージングフレームワークを提案する。
我々は,中国の江東宇宙ステーションと国際宇宙ステーションの合成衛星データセットとオンスキー観測の両方にアプローチを検証した。
我々のフレームワークは地球からの高忠実度3D衛星監視を可能にし、宇宙状況認識のためのコスト効率の良い代替手段を提供する。
論文 参考訳(メタデータ) (2024-04-29T03:13:09Z) - DiffusionSat: A Generative Foundation Model for Satellite Imagery [63.2807119794691]
現在、DiffusionSatは、現在利用可能な大規模な高解像度リモートセンシングデータセットのコレクションに基づいてトレーニングされている、最大の生成基盤モデルである。
提案手法は, リアルタイムなサンプルを作成し, 時間生成, マルチスペクトル入力の超解像, インペイントなどの複数の生成課題を解くのに利用できる。
論文 参考訳(メタデータ) (2023-12-06T16:53:17Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - CVLNet: Cross-View Semantic Correspondence Learning for Video-based
Camera Localization [89.69214577915959]
本稿では,クロスビューカメラのローカライゼーション問題に対処する。
本稿では、類似性マッチングの前に、問合せカメラの衛星画像に対する相対変位を推定する。
実験は、単一の画像に基づく位置決めよりもビデオベースの位置決めの有効性を実証した。
論文 参考訳(メタデータ) (2022-08-07T07:35:17Z) - Unsupervised Discovery of Semantic Concepts in Satellite Imagery with
Style-based Wavelet-driven Generative Models [27.62417543307831]
本稿では,衛星画像の広帯域合成が可能な,最初の事前学習型およびウェーブレット型GANモデルを提案する。
ネットワークの中間的アクティベーションを解析することにより、解釈可能なセマンティックな方向を多数発見できることが示される。
論文 参考訳(メタデータ) (2022-08-03T14:19:24Z) - Geometry-Guided Street-View Panorama Synthesis from Satellite Imagery [80.6282101835164]
オーバヘッド衛星画像から新しいストリートビューパノラマを合成するための新しいアプローチを提案する。
本手法は,googleの全方位ストリートビュー型パノラマを,衛星パッチの中央と同じ地理的位置から取得したかのように生成する。
論文 参考訳(メタデータ) (2021-03-02T10:27:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。