論文の概要: SatFlow: Generative model based framework for producing High Resolution Gap Free Remote Sensing Imagery
- arxiv url: http://arxiv.org/abs/2502.01098v1
- Date: Mon, 03 Feb 2025 06:40:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:02:21.890695
- Title: SatFlow: Generative model based framework for producing High Resolution Gap Free Remote Sensing Imagery
- Title(参考訳): SatFlow:高解像度ギャップフリーリモートセンシング画像を作成するための生成モデルベースのフレームワーク
- Authors: Bharath Irigireddy, Varaprasad Bandaru,
- Abstract要約: SatFlowは低分解能MODIS画像とランドサット観測を融合して高分解能・高分解能表面反射率画像を生成する生成モデルベースフレームワークである。
条件付きフローマッチングを用いて学習した本モデルでは, 構造的・スペクトル的整合性のある画像の生成性能が向上した。
この機能は、作物のフェノロジー追跡や環境変化検出など、下流のアプリケーションに不可欠である。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Frequent, high-resolution remote sensing imagery is crucial for agricultural and environmental monitoring. Satellites from the Landsat collection offer detailed imagery at 30m resolution but with lower temporal frequency, whereas missions like MODIS and VIIRS provide daily coverage at coarser resolutions. Clouds and cloud shadows contaminate about 55\% of the optical remote sensing observations, posing additional challenges. To address these challenges, we present SatFlow, a generative model-based framework that fuses low-resolution MODIS imagery and Landsat observations to produce frequent, high-resolution, gap-free surface reflectance imagery. Our model, trained via Conditional Flow Matching, demonstrates better performance in generating imagery with preserved structural and spectral integrity. Cloud imputation is treated as an image inpainting task, where the model reconstructs cloud-contaminated pixels and fills gaps caused by scan lines during inference by leveraging the learned generative processes. Experimental results demonstrate the capability of our approach in reliably imputing cloud-covered regions. This capability is crucial for downstream applications such as crop phenology tracking, environmental change detection etc.,
- Abstract(参考訳): 農業や環境モニタリングにおいて,高解像度のリモートセンシング画像が不可欠である。
ランドサットの衛星は30mの解像度で詳細な画像を提供するが、時間周波数は低い。
雲と雲の影は、光学リモートセンシング観測の約55%を汚染し、さらなる課題を引き起こしている。
これらの課題に対処するために,低分解能MODIS画像とランドサット観測を融合した生成モデルベースフレームワークであるSatFlowを紹介した。
条件付きフローマッチングを用いて学習した本モデルでは, 構造的・スペクトル的整合性のある画像の生成性能が向上した。
クラウド・インパテーションは, クラウドに汚染された画素を再構成し, 学習した生成過程を利用して, 推論中に走査線によって生じるギャップを埋めるイメージ・インパインティング・タスクとして扱われる。
実験により,雲に覆われた領域を確実に供給する手法の有効性が示された。
この能力は、作物のフェノロジー追跡や環境変化検出など、下流の応用に不可欠である。
関連論文リスト
- SatDiffMoE: A Mixture of Estimation Method for Satellite Image Super-resolution with Latent Diffusion Models [3.839322642354617]
我々はtextbfSatDiffMoE と呼ばれる新しい拡散型融合アルゴリズムを提案する。
アルゴリズムは非常に柔軟で、任意の数の低解像度画像のトレーニングと推測が可能である。
実験の結果,SatDiffMoE法は衛星画像の超解像処理に優れていた。
論文 参考訳(メタデータ) (2024-06-14T17:58:28Z) - IDF-CR: Iterative Diffusion Process for Divide-and-Conquer Cloud Removal in Remote-sensing Images [55.40601468843028]
雲除去のための反復拡散過程(IDF-CR)を提案する。
IDF-CRは、ピクセル空間と潜在空間に対処する2段階のモデルに分けられる。
潜時空間の段階では、拡散モデルは低品質の雲の除去を高品質のクリーンな出力に変換する。
論文 参考訳(メタデータ) (2024-03-18T15:23:48Z) - Diffusion Enhancement for Cloud Removal in Ultra-Resolution Remote
Sensing Imagery [48.14610248492785]
雲層は、光学リモートセンシング(RS)画像の品質と効果を著しく損なう。
既存のディープラーニング(DL)ベースのクラウド削除(CR)技術は、元の視覚的正当性と画像の詳細なセマンティック内容の正確な再構築に困難を伴う。
この課題に対処するために、データと方法論の面での強化を提案する。
論文 参考訳(メタデータ) (2024-01-25T13:14:17Z) - Towards High-quality HDR Deghosting with Conditional Diffusion Models [88.83729417524823]
高ダイナミックレンジ(LDR)画像は、既存のディープニューラルネットワーク(DNN)技術により、複数の低ダイナミックレンジ(LDR)画像から復元することができる。
DNNは、LDR画像が飽和度と大きな動きを持つ場合、ゴーストアーティファクトを生成する。
拡散モデルの条件としてLDR特徴を利用する画像生成としてHDRデゴースト問題を定式化する。
論文 参考訳(メタデータ) (2023-11-02T01:53:55Z) - DiffCR: A Fast Conditional Diffusion Framework for Cloud Removal from
Optical Satellite Images [27.02507384522271]
本稿では,光衛星画像の高速クラウド除去に深部畳み込みネットワークを用いた条件付き拡散を利用したDiffCRという新しいフレームワークを提案する。
条件付き特徴抽出のための分離エンコーダを導入し、条件付き入力と合成出力との外観情報の密接な類似性を確保するために、ロバストな色表現を提供する。
論文 参考訳(メタデータ) (2023-08-08T17:34:28Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Boosting Point Clouds Rendering via Radiance Mapping [49.24193509772339]
コンパクトなモデル設計でポイントクラウドレンダリングの画質向上に重点を置いている。
我々はNeRF表現を1ピクセルあたりの単一評価しか必要としない空間マッピング関数に単純化する。
提案手法は点雲上での最先端のレンダリングを実現し,先行研究を顕著なマージンで上回った。
論文 参考訳(メタデータ) (2022-10-27T01:25:57Z) - Cloud removal Using Atmosphere Model [7.259230333873744]
クラウド除去はリモートセンシングデータ分析において重要なタスクである。
本稿では,低階及びスパースモデルの枠組みにおける任意のシーンの画像の時間的シーケンスに散乱モデルを用いることを提案する。
本研究では,クラウドカバーを定量的に解析できる半現実的シミュレーション手法を開発した。
論文 参考訳(メタデータ) (2022-10-05T01:29:19Z) - Spatial-Temporal Super-Resolution of Satellite Imagery via Conditional
Pixel Synthesis [66.50914391487747]
高精度な高解像度画像を生成するために,高解像度の高解像度画像を用いた条件付き画素合成モデルを提案する。
我々は,本モデルにおいて,オブジェクトカウントという重要なダウンストリームタスクにおいて,フォトリアリスティックなサンプル品質を実現し,競合するベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-22T02:16:24Z) - Seeing Through Clouds in Satellite Images [14.84582204034532]
本稿では,衛星画像中の雲に隠されたピクセルを回復するためのニューラルネットワークベースのソリューションを提案する。
我々は、雲を貫通する超高周波数帯の電波周波数(RF)信号を活用し、マルチスペクトル画像における隠蔽領域の再構成を支援する。
論文 参考訳(メタデータ) (2021-06-15T20:01:27Z) - Predicting Landsat Reflectance with Deep Generative Fusion [2.867517731896504]
公共の衛星ミッションは一般に、空間分解能と時間分解能のトレードオフに結びついている。
これにより、植生の監視や人道的行動を支援する能力が損なわれる。
空間的・時間的特性の異なる製品を融合させて高解像度の光学画像を生成するための深部生成モデルの可能性を探る。
論文 参考訳(メタデータ) (2020-11-09T21:06:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。