論文の概要: Unleashing the Potential of the Semantic Latent Space in Diffusion Models for Image Dehazing
- arxiv url: http://arxiv.org/abs/2509.20091v1
- Date: Wed, 24 Sep 2025 13:11:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.818401
- Title: Unleashing the Potential of the Semantic Latent Space in Diffusion Models for Image Dehazing
- Title(参考訳): 画像デハジング用拡散モデルにおけるセマンティック潜時空間の可能性
- Authors: Zizheng Yang, Hu Yu, Bing Li, Jinghao Zhang, Jie Huang, Feng Zhao,
- Abstract要約: DiffLI$2$Dという画像デハジングのための拡散遅延インスパイアネットワークを提案する。
まず、事前学習した拡散モデルのセマンティック潜時空間が、画像の内容とヘイズ特性を表現することができることを明らかにした。
異なる時間ステップでの拡散遅延表現を繊細に設計したデハジングネットワークに統合し、画像デハジングの指示を与える。
- 参考スコア(独自算出の注目度): 25.138589492384654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have recently been investigated as powerful generative solvers for image dehazing, owing to their remarkable capability to model the data distribution. However, the massive computational burden imposed by the retraining of diffusion models, coupled with the extensive sampling steps during the inference, limit the broader application of diffusion models in image dehazing. To address these issues, we explore the properties of hazy images in the semantic latent space of frozen pre-trained diffusion models, and propose a Diffusion Latent Inspired network for Image Dehazing, dubbed DiffLI$^2$D. Specifically, we first reveal that the semantic latent space of pre-trained diffusion models can represent the content and haze characteristics of hazy images, as the diffusion time-step changes. Building upon this insight, we integrate the diffusion latent representations at different time-steps into a delicately designed dehazing network to provide instructions for image dehazing. Our DiffLI$^2$D avoids re-training diffusion models and iterative sampling process by effectively utilizing the informative representations derived from the pre-trained diffusion models, which also offers a novel perspective for introducing diffusion models to image dehazing. Extensive experiments on multiple datasets demonstrate that the proposed method achieves superior performance to existing image dehazing methods. Code is available at https://github.com/aaaasan111/difflid.
- Abstract(参考訳): 近年,拡散モデルが画像デハージングの強力な生成的解法として研究されている。
しかし,拡散モデルの再訓練によって課される膨大な計算負担は,画像デハジングにおける拡散モデルの適用範囲を制限している。
これらの問題に対処するため、凍結事前学習拡散モデルのセマンティック潜在空間におけるハズ画像の特性を探索し、DiffLI$2$Dと呼ばれる画像デハジングのための拡散潜在インスパイアされたネットワークを提案する。
具体的には,事前学習した拡散モデルのセマンティック潜時空間が,拡散時間の経過とともにヘイズ画像の内容とヘイズ特性を表現できることを明らかにする。
この知見に基づいて、異なる時間ステップでの拡散潜時表現を微妙に設計された脱ハージングネットワークに統合し、脱ハージングの指示を与える。
我々のDiffLI$^2$Dは、事前学習した拡散モデルから得られた情報表現を効果的に活用することにより、再学習拡散モデルと反復サンプリングプロセスを回避し、画像デハジングに拡散モデルを導入する新しい視点を提供する。
複数のデータセットに対する大規模な実験により,提案手法は既存の画像復調法よりも優れた性能を発揮することが示された。
コードはhttps://github.com/aaasan111/difflid.comで入手できる。
関連論文リスト
- DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z) - SinDiffusion: Learning a Diffusion Model from a Single Natural Image [159.4285444680301]
SinDiffusionは1つの自然な画像からパッチの内部分布を捉えるためにデノナイズ拡散モデルを利用する。
SinDiffusionは、2つのコア設計に基づいている。まず、SinDiffusionは、段階的にスケールが成長する複数のモデルではなく、1つのスケールで1つのモデルで訓練されている。
第2に,拡散ネットワークのパッチレベルの受容領域は,画像のパッチ統計を捉える上で重要かつ効果的であることを示す。
論文 参考訳(メタデータ) (2022-11-22T18:00:03Z) - Diffusion Models in Vision: A Survey [73.10116197883303]
拡散モデルは、前方拡散段階と逆拡散段階の2つの段階に基づく深層生成モデルである。
拡散モデルは、既知の計算負荷にもかかわらず、生成したサンプルの品質と多様性に対して広く評価されている。
論文 参考訳(メタデータ) (2022-09-10T22:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。