論文の概要: Exploiting Diffusion Prior for Real-World Image Dehazing with Unpaired Training
- arxiv url: http://arxiv.org/abs/2503.15017v1
- Date: Wed, 19 Mar 2025 09:13:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 17:45:40.915335
- Title: Exploiting Diffusion Prior for Real-World Image Dehazing with Unpaired Training
- Title(参考訳): 未経験トレーニングによる実世界の画像デハジングに先立つ爆発的拡散
- Authors: Yunwei Lan, Zhigao Cui, Chang Liu, Jialun Peng, Nian Wang, Xin Luo, Dong Liu,
- Abstract要約: 未ペアトレーニングは、ぼんやりとした鮮明なイメージから学ぶことによって、現実のデハジングに最も効果的なパラダイムの1つである。
空白画像の生成における拡散モデルの強い生成能力に触発され,実世界のデハジングに先立って拡散を利用する。
本稿では,画像とテキストのモダリティの劣化を除去し,拡散モデルの表現能力を適切に活用するための新たな視点を提案する。
- 参考スコア(独自算出の注目度): 11.902218695900217
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unpaired training has been verified as one of the most effective paradigms for real scene dehazing by learning from unpaired real-world hazy and clear images. Although numerous studies have been proposed, current methods demonstrate limited generalization for various real scenes due to limited feature representation and insufficient use of real-world prior. Inspired by the strong generative capabilities of diffusion models in producing both hazy and clear images, we exploit diffusion prior for real-world image dehazing, and propose an unpaired framework named Diff-Dehazer. Specifically, we leverage diffusion prior as bijective mapping learners within the CycleGAN, a classic unpaired learning framework. Considering that physical priors contain pivotal statistics information of real-world data, we further excavate real-world knowledge by integrating physical priors into our framework. Furthermore, we introduce a new perspective for adequately leveraging the representation ability of diffusion models by removing degradation in image and text modalities, so as to improve the dehazing effect. Extensive experiments on multiple real-world datasets demonstrate the superior performance of our method. Our code https://github.com/ywxjm/Diff-Dehazer.
- Abstract(参考訳): 未ペアのトレーニングは、未ペアの現実世界のぼやけた鮮明なイメージから学ぶことによって、現実のデハジングの最も効果的なパラダイムの1つとして検証されている。
多くの研究が提案されているが、現在の手法は、特徴表現の制限と実世界の事前利用の不十分さにより、様々な実シーンの限定的な一般化を実証している。
Diff-Dehazer という未実装のフレームワークを提案し, 実世界の画像デハジングに先立って拡散を生かし, 拡散モデルの強力な生成能力に着想を得た。
具体的には,従来の未経験学習フレームワークであるCycleGAN内での,単目的マッピング学習者としての拡散を活用できる。
物理先行情報には実世界のデータの重要な統計情報が含まれていることを考慮し,本フレームワークに物理先行情報を統合することにより,実世界の知識をさらに掘り下げる。
さらに,画像やテキストのモダリティの劣化を取り除き,拡散モデルの表現能力を適切に活用する新たな視点を導入し,脱湿効果を向上させる。
複数の実世界のデータセットに対する大規模な実験により,本手法の優れた性能が示された。
私たちのコード https://github.com/ywxjm/Diff-Dehazer。
関連論文リスト
- Learning Hazing to Dehazing: Towards Realistic Haze Generation for Real-World Image Dehazing [59.43187521828543]
本稿では,現実的なヘイズ画像生成フレームワーク(HazeGen)と拡散に基づくデハズ・フレームワーク(DiffDehaze)からなる,新しいヘイズ・デハズ・パイプラインを紹介する。
HazeGenは、事前訓練されたテキスト-画像拡散モデルに埋め込まれた実世界のハジー画像の堅牢な生成拡散先を利用する。
HazeGenは、特殊なハイブリッドトレーニングと混合サンプリング戦略を採用することで、DiffDehazeの高品質なトレーニングデータとして、現実的で多様なハジーイメージを生成する。
論文 参考訳(メタデータ) (2025-03-25T01:55:39Z) - Disentangled World Models: Learning to Transfer Semantic Knowledge from Distracting Videos for Reinforcement Learning [93.58897637077001]
本稿では,オフラインからオンラインまでの潜水蒸留とフレキシブルなゆがみ制約を通したビデオから,セマンティックな違いを学習し,理解することを試みる。
動作自由なビデオ予測モデルを非干渉正規化によりオフラインでトレーニングし、注意をそらすビデオから意味的知識を抽出する。
オンライン環境での微調整には、事前学習されたモデルからの知識を活用し、世界モデルに絡み合った制約を導入する。
論文 参考訳(メタデータ) (2025-03-11T13:50:22Z) - Diff-Mosaic: Augmenting Realistic Representations in Infrared Small Target Detection via Diffusion Prior [63.64088590653005]
本稿では拡散モデルに基づくデータ拡張手法であるDiff-Mosaicを提案する。
我々は,モザイク画像を高度に調整し,リアルな画像を生成するPixel-Priorという拡張ネットワークを導入する。
第2段階では,Diff-Prior という画像強調戦略を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:23:05Z) - What Matters When Repurposing Diffusion Models for General Dense Perception Tasks? [49.84679952948808]
最近の研究は、高密度知覚タスクのためのT2I拡散モデルを簡単に調整することで有望な結果を示す。
拡散前処理における伝達効率と性能に影響を及ぼす重要な要因を徹底的に検討する。
我々の研究は、濃密な視覚認知タスクに特化した効果的な決定論的ワンステップ微調整パラダイムであるGenPerceptの開発において頂点に達した。
論文 参考訳(メタデータ) (2024-03-10T04:23:24Z) - Intrinsic Image Diffusion for Indoor Single-view Material Estimation [55.276815106443976]
室内シーンの外観分解のための生成モデルIntrinsic Image Diffusionを提案する。
1つの入力ビューから、アルベド、粗さ、および金属地図として表される複数の材料説明をサンプリングする。
提案手法は,PSNRで1.5dB$,アルベド予測で45%のFIDスコアを達成し,よりシャープで,より一貫性があり,より詳細な資料を生成する。
論文 参考訳(メタデータ) (2023-12-19T15:56:19Z) - Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z) - Uni-Removal: A Semi-Supervised Framework for Simultaneously Addressing
Multiple Degradations in Real-World Images [6.3351090376024155]
Uni-Removalは、現実世界の画像における複数の劣化を取り除くための2段階の半教師付きフレームワークである。
知識伝達の段階では、Uni-Removalは教師付きマルチ教師と学生アーキテクチャを利用する。
ドメイン適応段階では、現実世界の画像に敵判別器を組み込むことにより、教師なしの微調整を行う。
論文 参考訳(メタデータ) (2023-07-11T07:18:15Z) - DiffusionSeg: Adapting Diffusion Towards Unsupervised Object Discovery [20.787180028571694]
DiffusionSegは、2段階戦略を含む合成探索フレームワークである。
我々は,豊富な画像を合成し,第1段階でマスクを得るための新しいトレーニングフリーアテンションカットを提案する。
第2のエクスプロイト段階では、構造的ギャップを埋めるために、インバージョン技術を用いて、与えられた画像を拡散特徴にマッピングする。
論文 参考訳(メタデータ) (2023-03-17T07:47:55Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。