論文の概要: ChangeBridge: Spatiotemporal Image Generation with Multimodal Controls for Remote Sensing
- arxiv url: http://arxiv.org/abs/2507.04678v1
- Date: Mon, 07 Jul 2025 05:51:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.286668
- Title: ChangeBridge: Spatiotemporal Image Generation with Multimodal Controls for Remote Sensing
- Title(参考訳): ChangeBridge: リモートセンシングのためのマルチモーダル制御による時空間画像生成
- Authors: Zhenghui Zhao, Chen Wu, Di Wang, Hongruixuan Chen, Zhuo Zheng,
- Abstract要約: ChangeBridgeはリモートセンシングのためのマルチモーダル制御を備えた生成モデルである。
イベントやイベント駆動のバックグラウンドのバリエーションを含む、所定の条件に沿った、高忠実な将来のシナリオをシミュレートすることができる。
- 参考スコア(独自算出の注目度): 11.103272439895315
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advancements in generative methods, especially diffusion models, have made great progress in remote sensing image synthesis. Despite these advancements, existing methods have not explored the simulation of future scenarios based on given scenario images. This simulation capability has wide applications for urban planning, land managementChangeBridge: Spatiotemporal Image Generation with Multimodal Controls, and beyond. In this work, we propose ChangeBridge, a conditional spatiotemporal diffusion model. Given pre-event images and conditioned on multimodal spatial controls (e.g., text prompts, instance layouts, and semantic maps), ChangeBridge can synthesize post-event images. The core idea behind ChangeBridge is to modeling the noise-to-image diffusion model, as a pre-to-post diffusion bridge. Conditioned on multimodal controls, ChangeBridge leverages a stochastic Brownian-bridge diffusion, directly modeling the spatiotemporal evolution between pre-event and post-event states. To the best of our knowledge, ChangeBridge is the first spatiotemporal generative model with multimodal controls for remote sensing. Experimental results demonstrate that ChangeBridge can simulate high-fidelity future scenarios aligned with given conditions, including event and event-driven background variations. Code will be available.
- Abstract(参考訳): 近年の生成法,特に拡散モデルの発展は,リモートセンシング画像合成に大きな進歩をもたらした。
これらの進歩にもかかわらず、既存の手法は、与えられたシナリオ画像に基づいて将来のシナリオのシミュレーションを探索していない。
このシミュレーション機能は、都市計画、土地管理のChangeBridge: マルチモーダル制御による時空間画像生成等に広く応用されている。
本研究では,条件付き時空間拡散モデルであるChangeBridgeを提案する。
事前設定されたイメージとマルチモーダルな空間制御(テキストプロンプト、インスタンスレイアウト、セマンティックマップなど)に条件付けされたChangeBridgeは、後処理されたイメージを合成できる。
ChangeBridgeの背後にある中核的な考え方は、ノイズ・ツー・イメージ拡散モデルをポスト・ツー・ポスト拡散ブリッジとしてモデル化することである。
マルチモーダル制御を前提として、ChangeBridgeは確率的ブラウン橋拡散を利用して、事前時間と後時間状態の時空間進化を直接モデル化する。
我々の知る限り、ChangeBridgeはリモートセンシングのためのマルチモーダル制御を備えた最初の時空間生成モデルである。
実験の結果、ChangeBridgeは、イベントやイベント駆動のバックグラウンドのバリエーションを含む、所定の条件に沿った、高忠実な将来のシナリオをシミュレートできることがわかった。
コードは利用可能です。
関連論文リスト
- Dual Diffusion for Unified Image Generation and Understanding [32.7554623473768]
マルチモーダル理解と生成のための大規模かつ完全なエンドツーエンド拡散モデルを提案する。
我々は、画像とテキストの条件付き確率を同時にトレーニングするクロスモーダル最大推定フレームワークを活用する。
我々のモデルは、最近の統合画像理解・生成モデルと比較して、競争性能が向上した。
論文 参考訳(メタデータ) (2024-12-31T05:49:00Z) - DPBridge: Latent Diffusion Bridge for Dense Prediction [49.1574468325115]
DPBridgeは、密度予測タスクのための最初の潜伏拡散ブリッジフレームワークである。
提案手法は,異なるシナリオ下での有効性と能力の一般化を実証し,優れた性能を継続的に達成する。
論文 参考訳(メタデータ) (2024-12-29T15:50:34Z) - ACDiT: Interpolating Autoregressive Conditional Modeling and Diffusion Transformer [95.80384464922147]
ACDiTはブロックワイド条件拡散変換器である。
トークン単位の自己回帰とフルシーケンス拡散のフレキシブルな関係を提供する。
本稿では,映像生成タスクにおける自己回帰ベースラインの中で,ACDiTが最良であることを示す。
論文 参考訳(メタデータ) (2024-12-10T18:13:20Z) - Changen2: Multi-Temporal Remote Sensing Generative Change Foundation Model [62.337749660637755]
安価で自動的な生成モデルに基づく変更データ生成器を提案する。
Changen2は、自己監督を通じて大規模にトレーニング可能な、生成的な変更基盤モデルである。
得られたモデルには、固有のゼロショット変化検出機能と優れた転送性がある。
論文 参考訳(メタデータ) (2024-06-26T01:03:39Z) - DiffusionSat: A Generative Foundation Model for Satellite Imagery [63.2807119794691]
現在、DiffusionSatは、現在利用可能な大規模な高解像度リモートセンシングデータセットのコレクションに基づいてトレーニングされている、最大の生成基盤モデルである。
提案手法は, リアルタイムなサンプルを作成し, 時間生成, マルチスペクトル入力の超解像, インペイントなどの複数の生成課題を解くのに利用できる。
論文 参考訳(メタデータ) (2023-12-06T16:53:17Z) - Diffusion Models Generate Images Like Painters: an Analytical Theory of Outline First, Details Later [1.8416014644193066]
画像生成の基盤となる逆拡散過程には,以下の特性がある。
個々の軌道は低次元であり、2次元回転に似ている」。
本手法は,事前学習したモデルに対する画像生成の初期フェーズを正確に記述する。
論文 参考訳(メタデータ) (2023-03-04T20:08:57Z) - ShiftDDPMs: Exploring Conditional Diffusion Models by Shifting Diffusion
Trajectories [144.03939123870416]
本稿では,前処理に条件を導入することで,新しい条件拡散モデルを提案する。
いくつかのシフト規則に基づいて各条件に対して排他的拡散軌跡を割り当てるために、余剰潜在空間を用いる。
我々は textbfShiftDDPMs と呼ぶメソッドを定式化し、既存のメソッドの統一的な視点を提供する。
論文 参考訳(メタデータ) (2023-02-05T12:48:21Z) - On Conditioning the Input Noise for Controlled Image Generation with
Diffusion Models [27.472482893004862]
条件付き画像生成は、画像編集、ストック写真の生成、および3Dオブジェクト生成におけるいくつかのブレークスルーの道を開いた。
本研究では,入出力ノイズアーチファクトを慎重に構築した条件拡散モデルを提案する。
論文 参考訳(メタデータ) (2022-05-08T13:18:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。