論文の概要: Exploiting Diffusion Prior for Real-World Image Dehazing with Unpaired Training
- arxiv url: http://arxiv.org/abs/2503.15017v1
- Date: Wed, 19 Mar 2025 09:13:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:23:32.678786
- Title: Exploiting Diffusion Prior for Real-World Image Dehazing with Unpaired Training
- Title(参考訳): 未経験トレーニングによる実世界の画像デハジングに先立つ爆発的拡散
- Authors: Yunwei Lan, Zhigao Cui, Chang Liu, Jialun Peng, Nian Wang, Xin Luo, Dong Liu,
- Abstract要約: 未ペアトレーニングは、ぼんやりとした鮮明なイメージから学ぶことによって、現実のデハジングに最も効果的なパラダイムの1つである。
空白画像の生成における拡散モデルの強い生成能力に触発され,実世界のデハジングに先立って拡散を利用する。
本稿では,画像とテキストのモダリティの劣化を除去し,拡散モデルの表現能力を適切に活用するための新たな視点を提案する。
- 参考スコア(独自算出の注目度): 11.902218695900217
- License:
- Abstract: Unpaired training has been verified as one of the most effective paradigms for real scene dehazing by learning from unpaired real-world hazy and clear images. Although numerous studies have been proposed, current methods demonstrate limited generalization for various real scenes due to limited feature representation and insufficient use of real-world prior. Inspired by the strong generative capabilities of diffusion models in producing both hazy and clear images, we exploit diffusion prior for real-world image dehazing, and propose an unpaired framework named Diff-Dehazer. Specifically, we leverage diffusion prior as bijective mapping learners within the CycleGAN, a classic unpaired learning framework. Considering that physical priors contain pivotal statistics information of real-world data, we further excavate real-world knowledge by integrating physical priors into our framework. Furthermore, we introduce a new perspective for adequately leveraging the representation ability of diffusion models by removing degradation in image and text modalities, so as to improve the dehazing effect. Extensive experiments on multiple real-world datasets demonstrate the superior performance of our method. Our code https://github.com/ywxjm/Diff-Dehazer.
- Abstract(参考訳): 未ペアのトレーニングは、未ペアの現実世界のぼやけた鮮明なイメージから学ぶことによって、現実のデハジングの最も効果的なパラダイムの1つとして検証されている。
多くの研究が提案されているが、現在の手法は、特徴表現の制限と実世界の事前利用の不十分さにより、様々な実シーンの限定的な一般化を実証している。
Diff-Dehazer という未実装のフレームワークを提案し, 実世界の画像デハジングに先立って拡散を生かし, 拡散モデルの強力な生成能力に着想を得た。
具体的には,従来の未経験学習フレームワークであるCycleGAN内での,単目的マッピング学習者としての拡散を活用できる。
物理先行情報には実世界のデータの重要な統計情報が含まれていることを考慮し,本フレームワークに物理先行情報を統合することにより,実世界の知識をさらに掘り下げる。
さらに,画像やテキストのモダリティの劣化を取り除き,拡散モデルの表現能力を適切に活用する新たな視点を導入し,脱湿効果を向上させる。
複数の実世界のデータセットに対する大規模な実験により,本手法の優れた性能が示された。
私たちのコード https://github.com/ywxjm/Diff-Dehazer。
関連論文リスト
- Diff-Mosaic: Augmenting Realistic Representations in Infrared Small Target Detection via Diffusion Prior [63.64088590653005]
本稿では拡散モデルに基づくデータ拡張手法であるDiff-Mosaicを提案する。
我々は,モザイク画像を高度に調整し,リアルな画像を生成するPixel-Priorという拡張ネットワークを導入する。
第2段階では,Diff-Prior という画像強調戦略を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:23:05Z) - Bridging Generative and Discriminative Models for Unified Visual
Perception with Diffusion Priors [56.82596340418697]
本稿では,豊富な生成前駆体を含む事前学習型安定拡散(SD)モデルと,階層的表現を統合可能な統一型ヘッド(Uヘッド)と,識別前駆体を提供する適応型専門家からなる,シンプルで効果的なフレームワークを提案する。
包括的調査では、異なる時間ステップで潜伏変数に隠された知覚の粒度や様々なU-netステージなど、バーマスの潜在的な特性が明らかになった。
有望な結果は,有望な学習者としての拡散モデルの可能性を示し,情報的かつ堅牢な視覚表現の確立にその意義を定めている。
論文 参考訳(メタデータ) (2024-01-29T10:36:57Z) - Intrinsic Image Diffusion for Indoor Single-view Material Estimation [55.276815106443976]
室内シーンの外観分解のための生成モデルIntrinsic Image Diffusionを提案する。
1つの入力ビューから、アルベド、粗さ、および金属地図として表される複数の材料説明をサンプリングする。
提案手法は,PSNRで1.5dB$,アルベド予測で45%のFIDスコアを達成し,よりシャープで,より一貫性があり,より詳細な資料を生成する。
論文 参考訳(メタデータ) (2023-12-19T15:56:19Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z) - Uni-Removal: A Semi-Supervised Framework for Simultaneously Addressing
Multiple Degradations in Real-World Images [6.3351090376024155]
Uni-Removalは、現実世界の画像における複数の劣化を取り除くための2段階の半教師付きフレームワークである。
知識伝達の段階では、Uni-Removalは教師付きマルチ教師と学生アーキテクチャを利用する。
ドメイン適応段階では、現実世界の画像に敵判別器を組み込むことにより、教師なしの微調整を行う。
論文 参考訳(メタデータ) (2023-07-11T07:18:15Z) - DiffusionSeg: Adapting Diffusion Towards Unsupervised Object Discovery [20.787180028571694]
DiffusionSegは、2段階戦略を含む合成探索フレームワークである。
我々は,豊富な画像を合成し,第1段階でマスクを得るための新しいトレーニングフリーアテンションカットを提案する。
第2のエクスプロイト段階では、構造的ギャップを埋めるために、インバージョン技術を用いて、与えられた画像を拡散特徴にマッピングする。
論文 参考訳(メタデータ) (2023-03-17T07:47:55Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。