論文の概要: RSHazeDiff: A Unified Fourier-aware Diffusion Model for Remote Sensing Image Dehazing
- arxiv url: http://arxiv.org/abs/2405.09083v2
- Date: Fri, 15 Nov 2024 02:17:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 15:36:07.502630
- Title: RSHazeDiff: A Unified Fourier-aware Diffusion Model for Remote Sensing Image Dehazing
- Title(参考訳): RSHazeDiff:リモートセンシング画像デハージングのための統一されたフーリエ認識拡散モデル
- Authors: Jiamei Xiong, Xuefeng Yan, Yongzhen Wang, Wei Zhao, Xiao-Ping Zhang, Mingqiang Wei,
- Abstract要約: Hazeはリモートセンシング画像の視覚的品質を著しく低下させる。
本稿では,RSHazeDiffと呼ばれるリモートセンシング画像デハージングのための新しいFourier-aware拡散モデルを提案する。
合成および実世界のベンチマークの実験は、最先端の手法よりもRSHazeDiffの好ましい性能を検証する。
- 参考スコア(独自算出の注目度): 32.16602874389847
- License:
- Abstract: Haze severely degrades the visual quality of remote sensing images and hampers the performance of road extraction, vehicle detection, and traffic flow monitoring. The emerging denoising diffusion probabilistic model (DDPM) exhibits the significant potential for dense haze removal with its strong generation ability. Since remote sensing images contain extensive small-scale texture structures, it is important to effectively restore image details from hazy images. However, current wisdom of DDPM fails to preserve image details and color fidelity well, limiting its dehazing capacity for remote sensing images. In this paper, we propose a novel unified Fourier-aware diffusion model for remote sensing image dehazing, termed RSHazeDiff. From a new perspective, RSHazeDiff explores the conditional DDPM to improve image quality in dense hazy scenarios, and it makes three key contributions. First, RSHazeDiff refines the training phase of diffusion process by performing noise estimation and reconstruction constraints in a coarse-to-fine fashion. Thus, it remedies the unpleasing results caused by the simple noise estimation constraint in DDPM. Second, by taking the frequency information as important prior knowledge during iterative sampling steps, RSHazeDiff can preserve more texture details and color fidelity in dehazed images. Third, we design a global compensated learning module to utilize the Fourier transform to capture the global dependency features of input images, which can effectively mitigate the effects of boundary artifacts when processing fixed-size patches. Experiments on both synthetic and real-world benchmarks validate the favorable performance of RSHazeDiff over state-of-the-art methods. Source code will be released at https://github.com/jm-xiong/RSHazeDiff.
- Abstract(参考訳): Hazeは、リモートセンシング画像の視覚的品質を著しく低下させ、道路抽出、車両検出、交通流監視の性能を損なう。
進行する拡散確率モデル (DDPM) は, 強い生成能を有する高密度ヘイズ除去の有意な可能性を示す。
リモートセンシング画像は、広範囲の小さなテクスチャ構造を含むため、ハズイ画像から画像の詳細を効果的に復元することが重要である。
しかし、DDPMの現在の知恵は、画像の詳細と色の忠実さをよく保たず、リモートセンシング画像の脱調能力を制限している。
本稿では、RSHazeDiffと呼ばれるリモートセンシング画像デハージングのための統合されたフーリエ対応拡散モデルを提案する。
RSHazeDiff氏は新しい視点から条件付きDDPMを探求し、密集した曖昧なシナリオにおける画質を改善するとともに、3つの重要な貢献をしている。
まず、RSHazeDiffは、ノイズ推定と再構成制約を粗大な方法で実行することにより拡散過程の訓練フェーズを洗練する。
これにより、DDPMにおける単純な雑音推定制約による不快な結果を改善することができる。
第二に、繰り返しサンプリングステップにおいて周波数情報を重要な事前知識とすることで、RSHazeDiffはデハズド画像のテクスチャの詳細と色彩の忠実さを保存できる。
第3に,Fourier変換を用いたグローバル補償学習モジュールを設計して,入力画像のグローバル依存性の特徴を捉えることにより,固定サイズパッチ処理における境界アーチファクトの効果を効果的に軽減することができる。
合成および実世界のベンチマークの実験は、最先端の手法よりもRSHazeDiffの好ましい性能を検証する。
ソースコードはhttps://github.com/jm-xiong/RSHazeDiffで公開される。
関連論文リスト
- Multi-scale Frequency Enhancement Network for Blind Image Deblurring [7.198959621445282]
視覚障害者のためのマルチスケール周波数拡張ネットワーク(MFENet)を提案する。
ぼやけた画像のマルチスケール空間およびチャネル情報をキャプチャするために,深度的に分離可能な畳み込みに基づくマルチスケール特徴抽出モジュール(MS-FE)を導入する。
提案手法は,視覚的品質と客観的評価の両指標において,優れた劣化性能を達成できることを実証する。
論文 参考訳(メタデータ) (2024-11-11T11:49:18Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - EDiffSR: An Efficient Diffusion Probabilistic Model for Remote Sensing
Image Super-Resolution [32.956539422513416]
畳み込みネットワークは、リモートセンシング画像スーパーレゾルティオン(SR)において顕著な発展を遂げた
生成的敵ネットワークは複雑な詳細を推測する可能性があるが、それらは容易に崩壊し、望ましくない成果物をもたらす。
EDiffSRは訓練が容易で、知覚障害画像の生成におけるDPMの利点を維持している。
論文 参考訳(メタデータ) (2023-10-30T06:09:33Z) - Frequency Compensated Diffusion Model for Real-scene Dehazing [6.105813272271171]
本研究では,実ヘイズへの一般化を改善する条件付き拡散モデルに基づく脱ヘイズフレームワークについて考察する。
提案手法は, 実世界の画像において, 最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2023-08-21T06:50:44Z) - Learning A Coarse-to-Fine Diffusion Transformer for Image Restoration [39.071637725773314]
画像復元のための粗大な拡散変換器(C2F-DFT)を提案する。
C2F-DFTは拡散自己注意(DFSA)と拡散フィードフォワードネットワーク(DFN)を含んでいる
粗い訓練段階において,我々のC2F-DFTはノイズを推定し,サンプリングアルゴリズムにより最終クリーン画像を生成する。
論文 参考訳(メタデータ) (2023-08-17T01:59:59Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Denoising Diffusion Models for Plug-and-Play Image Restoration [135.6359475784627]
本稿では,従来のプラグアンドプレイ方式を拡散サンプリングフレームワークに統合したDiffPIRを提案する。
DiffPIRは、差別的なガウスのデノイザーに依存するプラグアンドプレイIR法と比較して、拡散モデルの生成能力を継承することが期待されている。
論文 参考訳(メタデータ) (2023-05-15T20:24:38Z) - SAR Despeckling using a Denoising Diffusion Probabilistic Model [52.25981472415249]
スペックルの存在は画像品質を劣化させ、SAR画像理解アプリケーションの性能に悪影響を及ぼす。
本稿では,SAR脱種のための拡散確率モデルであるSAR-DDPMを紹介する。
提案手法は, 最先端の切り離し法と比較して, 定量化と定性化の両面で有意な改善を実現している。
論文 参考訳(メタデータ) (2022-06-09T14:00:26Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。