論文の概要: Diffusion Enhancement for Cloud Removal in Ultra-Resolution Remote
Sensing Imagery
- arxiv url: http://arxiv.org/abs/2401.15105v1
- Date: Thu, 25 Jan 2024 13:14:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 19:45:46.940958
- Title: Diffusion Enhancement for Cloud Removal in Ultra-Resolution Remote
Sensing Imagery
- Title(参考訳): 超解像リモートセンシング画像における雲除去のための拡散促進
- Authors: Jialu Sui, Yiyang Ma, Wenhan Yang, Xiaokang Zhang, Man-On Pun and
Jiaying Liu
- Abstract要約: 雲層は、光学リモートセンシング(RS)画像の品質と効果を著しく損なう。
既存のディープラーニング(DL)ベースのクラウド削除(CR)技術は、元の視覚的正当性と画像の詳細なセマンティック内容の正確な再構築に困難を伴う。
この課題に対処するために、データと方法論の面での強化を提案する。
- 参考スコア(独自算出の注目度): 48.14610248492785
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The presence of cloud layers severely compromises the quality and
effectiveness of optical remote sensing (RS) images. However, existing
deep-learning (DL)-based Cloud Removal (CR) techniques encounter difficulties
in accurately reconstructing the original visual authenticity and detailed
semantic content of the images. To tackle this challenge, this work proposes to
encompass enhancements at the data and methodology fronts. On the data side, an
ultra-resolution benchmark named CUHK Cloud Removal (CUHK-CR) of 0.5m spatial
resolution is established. This benchmark incorporates rich detailed textures
and diverse cloud coverage, serving as a robust foundation for designing and
assessing CR models. From the methodology perspective, a novel diffusion-based
framework for CR called Diffusion Enhancement (DE) is proposed to perform
progressive texture detail recovery, which mitigates the training difficulty
with improved inference accuracy. Additionally, a Weight Allocation (WA)
network is developed to dynamically adjust the weights for feature fusion,
thereby further improving performance, particularly in the context of
ultra-resolution image generation. Furthermore, a coarse-to-fine training
strategy is applied to effectively expedite training convergence while reducing
the computational complexity required to handle ultra-resolution images.
Extensive experiments on the newly established CUHK-CR and existing datasets
such as RICE confirm that the proposed DE framework outperforms existing
DL-based methods in terms of both perceptual quality and signal fidelity.
- Abstract(参考訳): 雲層の存在は、光学リモートセンシング(RS)画像の品質と効果を著しく損なう。
しかし、既存のディープラーニング(DL)ベースのクラウド除去(CR)技術は、元の視覚的正当性と画像の詳細なセマンティック内容の正確な再構築に苦慮している。
この課題に対処するため、この研究はデータと方法論の面での強化を包括することを提案する。
データ側では、0.5m空間解像度のCUHKクラウド除去(CUHK-CR)と呼ばれる超高解像度のベンチマークが確立されている。
このベンチマークには、詳細なテクスチャと多様なクラウドカバレッジが含まれており、crモデルの設計と評価のための堅牢な基盤となっている。
方法論の観点からは,拡散強調 (de) と呼ばれる新しい拡散ベースcrフレームワークを提案し, プログレッシブテクスチャディテールリカバリを行い, 推定精度の向上によりトレーニング難易度を軽減した。
さらに、特に超高解像度画像生成において、特徴融合の重みを動的に調整し、さらに性能を向上させるために、ウェイトアロケーション(WA)ネットワークを開発した。
さらに,超高解像度画像の処理に要する計算複雑性を低減しつつ,トレーニング収束を効果的に行うために,粗大なトレーニング戦略を適用した。
新たに確立されたCUHK-CRと、RICEなどの既存のデータセットに関する広範な実験により、提案されたDECフレームワークは、知覚品質と信号忠実性の両方の観点から、既存のDLベースの手法よりも優れていることを確認した。
関連論文リスト
- Sewer Image Super-Resolution with Depth Priors and Its Lightweight Network [11.13549330516683]
クイックビュー(QV)技術は下水道システム内の欠陥を検出する主要な方法である。
超解像度は画像品質を改善する効果的な方法であり、様々な場面で応用されている。
本研究では, DSRNet で表される新しい深層誘導参照型超解法フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-27T14:45:34Z) - Mitigating Data Consistency Induced Discrepancy in Cascaded Diffusion Models for Sparse-view CT Reconstruction [4.227116189483428]
本研究は, 離散性緩和フレームワークを用いた新規なカスケード拡散について紹介する。
潜在空間の低画質画像生成と画素空間の高画質画像生成を含む。
これは、いくつかの推論ステップをピクセル空間から潜在空間に移すことによって計算コストを最小化する。
論文 参考訳(メタデータ) (2024-03-14T12:58:28Z) - Reti-Diff: Illumination Degradation Image Restoration with Retinex-based
Latent Diffusion Model [59.08821399652483]
照明劣化画像復元(IDIR)技術は、劣化した画像の視認性を改善し、劣化した照明の悪影響を軽減することを目的としている。
これらのアルゴリズムのうち、拡散モデル(DM)に基づく手法は期待できる性能を示しているが、画像レベルの分布を予測する際に、重い計算要求や画素の不一致の問題に悩まされることが多い。
我々は、コンパクトな潜在空間内でDMを活用して、簡潔な指導先を生成することを提案し、IDIRタスクのためのReti-Diffと呼ばれる新しいソリューションを提案する。
Reti-Diff は Retinex-based Latent DM (RLDM) と Retinex-Guided Transformer (RG) の2つの鍵成分からなる。
論文 参考訳(メタデータ) (2023-11-20T09:55:06Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - Multi-Modal and Multi-Resolution Data Fusion for High-Resolution Cloud Removal: A Novel Baseline and Benchmark [21.255966041023083]
マルチモーダルおよびマルチリゾリューションデータ融合を用いた高分解能クラウド除去のためのベンチマークデータセットであるM3R-CRを紹介する。
マルチモーダル・マルチレゾリューション情報の統合による高解像度光リモートセンシング画像における雲除去の問題点を考察する。
我々は、低解像度SAR画像誘導高解像度光画像雲除去を行うためのAlign-CRという新しいベースラインを設計する。
論文 参考訳(メタデータ) (2023-01-09T15:31:28Z) - Single Image Internal Distribution Measurement Using Non-Local
Variational Autoencoder [11.985083962982909]
本稿では,非局所変分オートエンコーダ(textttNLVAE)という画像固有解を提案する。
textttNLVAEは,非局所領域からの非絡み合った情報を用いて高解像度画像を再構成する自己教師型戦略として導入された。
7つのベンチマークデータセットによる実験結果から,textttNLVAEモデルの有効性が示された。
論文 参考訳(メタデータ) (2022-04-02T18:43:55Z) - Robust Single Image Dehazing Based on Consistent and Contrast-Assisted
Reconstruction [95.5735805072852]
画像復調モデルのロバスト性を改善するための新しい密度変分学習フレームワークを提案する。
具体的には、デハジングネットワークは、一貫性の規則化されたフレームワークの下で最適化されている。
我々の手法は最先端のアプローチを大きく上回っている。
論文 参考訳(メタデータ) (2022-03-29T08:11:04Z) - Deep Generative Adversarial Residual Convolutional Networks for
Real-World Super-Resolution [31.934084942626257]
我々は,超解像残差畳み込み生成共役ネットワーク(SRResCGAN)を提案する。
これは、生成したLRドメインからHRドメインの画素単位の監督でモデルを逆トレーニングすることで、現実世界の劣化設定に従う。
提案するネットワークは,画像の高精細化と凸最適化によるエネルギーベース目的関数の最小化により,残差学習を利用する。
論文 参考訳(メタデータ) (2020-05-03T00:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。