論文の概要: CloudBreaker: Breaking the Cloud Covers of Sentinel-2 Images using Multi-Stage Trained Conditional Flow Matching on Sentinel-1
- arxiv url: http://arxiv.org/abs/2508.03608v1
- Date: Tue, 05 Aug 2025 16:25:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:56.070349
- Title: CloudBreaker: Breaking the Cloud Covers of Sentinel-2 Images using Multi-Stage Trained Conditional Flow Matching on Sentinel-1
- Title(参考訳): CloudBreaker:Sentinel-1上でのマルチステージトレーニング条件流マッチングによるSentinel-2イメージのクラウドカバー分割
- Authors: Saleh Sakib Ahmed, Sara Nowreen, M. Sohel Rahman,
- Abstract要約: 雲の覆いと夜間の条件は、衛星によるリモートセンシングにおいて重要な制限を保っている。
我々は、Sentinel-1データから高品質なマルチスペクトルSentinel-2信号を生成する新しいフレームワークであるCloudBreakerを提案する。
- 参考スコア(独自算出の注目度): 1.0428401220897083
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cloud cover and nighttime conditions remain significant limitations in satellite-based remote sensing, often restricting the availability and usability of multi-spectral imagery. In contrast, Sentinel-1 radar images are unaffected by cloud cover and can provide consistent data regardless of weather or lighting conditions. To address the challenges of limited satellite imagery, we propose CloudBreaker, a novel framework that generates high-quality multi-spectral Sentinel-2 signals from Sentinel-1 data. This includes the reconstruction of optical (RGB) images as well as critical vegetation and water indices such as NDVI and NDWI.We employed a novel multi-stage training approach based on conditional latent flow matching and, to the best of our knowledge, are the first to integrate cosine scheduling with flow matching. CloudBreaker demonstrates strong performance, achieving a Frechet Inception Distance (FID) score of 0.7432, indicating high fidelity and realism in the generated optical imagery. The model also achieved Structural Similarity Index Measure (SSIM) of 0.6156 for NDWI and 0.6874 for NDVI, indicating a high degree of structural similarity. This establishes CloudBreaker as a promising solution for a wide range of remote sensing applications where multi-spectral data is typically unavailable or unreliable
- Abstract(参考訳): 雲のカバーと夜間の条件は、衛星ベースのリモートセンシングにおいて重要な制限であり、しばしばマルチスペクトル画像の可用性と使用性を制限する。
対照的に、Sentinel-1レーダー画像は雲の覆いの影響を受けず、天候や照明条件に関わらず一貫したデータを提供することができる。
限られた衛星画像の課題に対処するため、我々はSentinel-1データから高品質なマルチスペクトルSentinel-2信号を生成する新しいフレームワークであるCloudBreakerを提案する。
この中には、光学(RGB)画像の再構成や、NDVIやNDWIといった重要な植生や水の指標が含まれており、我々は条件付き潜水流マッチングに基づく新しい多段階トレーニングアプローチを採用しており、私たちの知る限り、最初にコサインスケジューリングとフローマッチングを統合した。
CloudBreakerは強力な性能を示し、Frechet Inception Distance (FID)スコア0.7432を達成し、生成された光学画像の忠実度と現実性を示している。
また、NDWIは0.6156、NDVIは0.6874、構造類似度は高い。
これにより、CloudBreakerは、マルチスペクトルデータが通常利用できない、または信頼性の低い広範囲のリモートセンシングアプリケーションのための有望なソリューションとして確立される。
関連論文リスト
- EC-Diff: Fast and High-Quality Edge-Cloud Collaborative Inference for Diffusion Models [57.059991285047296]
高速な推論と高品質な生成を実現するために,ハイブリッドエッジクラウドコラボレーションフレームワークが最近提案されている。
過度の雲が推論時間を延ばす一方、不十分なステップは意味的な曖昧さを引き起こし、エッジモデルの出力の不整合を引き起こす。
勾配に基づく雑音推定により雲の推測を高速化するEC-Diffを提案する。
提案手法は, エッジ推定に比べて生成品質を著しく向上する一方で, クラウド推定に比べて平均2倍の速度アップを達成できる。
論文 参考訳(メタデータ) (2025-07-16T07:23:14Z) - FUSE: Label-Free Image-Event Joint Monocular Depth Estimation via Frequency-Decoupled Alignment and Degradation-Robust Fusion [63.87313550399871]
画像強調共同深度推定法は、頑健な知覚に相補的なモダリティを利用するが、一般化可能性の課題に直面している。
自己監督型転送(PST)と周波数デカップリング型フュージョンモジュール(FreDF)を提案する。
PSTは、画像基礎モデルと潜在空間アライメントによるクロスモーダルな知識伝達を確立する。
FreDFは、低周波構造成分から高周波エッジ特性を明示的に分離し、モード比周波数ミスマッチを解消する。
論文 参考訳(メタデータ) (2025-03-25T15:04:53Z) - A light-weight model to generate NDWI from Sentinel-1 [0.7996307305274611]
本研究では,Sentinel-1画像から正規化差分水指数(NDWI)を生成する深層学習モデルを提案する。
NDWIの予測には,精度0.9134,AUC0.8656が有効であることを示す。
論文 参考訳(メタデータ) (2025-01-23T03:50:51Z) - DiffCR: A Fast Conditional Diffusion Framework for Cloud Removal from
Optical Satellite Images [27.02507384522271]
本稿では,光衛星画像の高速クラウド除去に深部畳み込みネットワークを用いた条件付き拡散を利用したDiffCRという新しいフレームワークを提案する。
条件付き特徴抽出のための分離エンコーダを導入し、条件付き入力と合成出力との外観情報の密接な類似性を確保するために、ロバストな色表現を提供する。
論文 参考訳(メタデータ) (2023-08-08T17:34:28Z) - U-TILISE: A Sequence-to-sequence Model for Cloud Removal in Optical
Satellite Time Series [22.39321609253005]
我々は,クラウドにマッピングされた入力シーケンスを,クラウドのない出力シーケンスにマッピングできるニューラルモデルを開発した。
本研究では,欧州全域で取得した衛星センチネル2時系列のデータセットを用いて,提案モデルの有効性を実験的に評価した。
標準ベースラインと比較して、PSNRは以前見られた場所で1.8dB、見えない場所では1.3dB増加する。
論文 参考訳(メタデータ) (2023-05-22T17:37:10Z) - Boosting Point Clouds Rendering via Radiance Mapping [49.24193509772339]
コンパクトなモデル設計でポイントクラウドレンダリングの画質向上に重点を置いている。
我々はNeRF表現を1ピクセルあたりの単一評価しか必要としない空間マッピング関数に単純化する。
提案手法は点雲上での最先端のレンダリングを実現し,先行研究を顕著なマージンで上回った。
論文 参考訳(メタデータ) (2022-10-27T01:25:57Z) - Self-Configuring nnU-Nets Detect Clouds in Satellite Images [30.46904432868366]
nnU-Netsは、さまざまなデータセット上でセグメンテーションネットワークのメタラーニングを実行することができる、自己再構成可能なフレームワークである。
Sentinel-2とLandsat-8のマルチスペクトル画像を用いて行った実験により,nnU-Netsは手動設計なしで最先端のクラウドセグメンテーション性能を実現することがわかった。
論文 参考訳(メタデータ) (2022-10-24T23:39:58Z) - SEN12MS-CR-TS: A Remote Sensing Data Set for Multi-modal Multi-temporal
Cloud Removal [15.459106705735376]
人工衛星によって収集された光学観測の約半数は、ヘイズや雲の影響を受けている。
本研究は、SEN12MS-CR-TSによる光衛星画像再構成と雲除去の課題に対処する。
本稿では,SEN12MS-CR-TSの利点とユースケースを明らかにする2つのモデルを提案する。
論文 参考訳(メタデータ) (2022-01-24T11:38:49Z) - Mega-NeRF: Scalable Construction of Large-Scale NeRFs for Virtual
Fly-Throughs [54.41204057689033]
我々は、ニューラルネットワーク(NeRF)を活用して、建物にまたがる大規模な視覚的キャプチャーや、主にドローンデータから収集された複数の都市ブロックからインタラクティブな3D環境を構築する方法について検討する。
NeRFが伝統的に評価されている単一のオブジェクトシーンとは対照的に、この設定には複数の課題がある。
我々は、訓練画像(またはむしろピクセル)を、並列で訓練できる異なるNeRFサブモジュールに分割する単純なクラスタリングアルゴリズムを導入する。
論文 参考訳(メタデータ) (2021-12-20T17:40:48Z) - Sentinel-1 and Sentinel-2 Spatio-Temporal Data Fusion for Clouds Removal [51.9654625216266]
雲崩壊した光画像復元のための新しい手法が,ジョイントデータ融合パラダイムに基づいて提案され,開発されている。
Sentinelのコードとデータセットはスクラッチから実装され、さらなる分析と調査のために興味のある研究が利用可能になった点に注目しておくとよいだろう。
論文 参考訳(メタデータ) (2021-06-23T08:15:01Z) - Conditional Variational Image Deraining [158.76814157115223]
キャラクタリゼーション性能向上のための条件変分画像レイニング(CVID)ネットワーク
本研究では,各画像の降雨密度マップを推定するための空間密度推定(SDE)モジュールを提案する。
合成および実世界のデータセットを用いた実験により,提案したCVIDネットワークは,画像のデライニングにおける従来の決定論的手法よりもはるかに優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-04-23T11:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。