論文の概要: LLDiffusion: Learning Degradation Representations in Diffusion Models
for Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2307.14659v1
- Date: Thu, 27 Jul 2023 07:22:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-28 15:31:15.665436
- Title: LLDiffusion: Learning Degradation Representations in Diffusion Models
for Low-Light Image Enhancement
- Title(参考訳): LLDiffusion:低照度画像強調のための拡散モデルにおける学習劣化表現
- Authors: Tao Wang, Kaihao Zhang, Ziqian Shao, Wenhan Luo, Bjorn Stenger,
Tae-Kyun Kim, Wei Liu, Hongdong Li
- Abstract要約: 現在の低照度画像強調(LLIE)の深層学習法は、通常、ペア化されたデータから学んだピクセルワイドマッピングに依存している。
本稿では,拡散モデルを用いたLLIEの劣化認識学習手法を提案する。
- 参考スコア(独自算出の注目度): 118.83316133601319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current deep learning methods for low-light image enhancement (LLIE)
typically rely on pixel-wise mapping learned from paired data. However, these
methods often overlook the importance of considering degradation
representations, which can lead to sub-optimal outcomes. In this paper, we
address this limitation by proposing a degradation-aware learning scheme for
LLIE using diffusion models, which effectively integrates degradation and image
priors into the diffusion process, resulting in improved image enhancement. Our
proposed degradation-aware learning scheme is based on the understanding that
degradation representations play a crucial role in accurately modeling and
capturing the specific degradation patterns present in low-light images. To
this end, First, a joint learning framework for both image generation and image
enhancement is presented to learn the degradation representations. Second, to
leverage the learned degradation representations, we develop a Low-Light
Diffusion model (LLDiffusion) with a well-designed dynamic diffusion module.
This module takes into account both the color map and the latent degradation
representations to guide the diffusion process. By incorporating these
conditioning factors, the proposed LLDiffusion can effectively enhance
low-light images, considering both the inherent degradation patterns and the
desired color fidelity. Finally, we evaluate our proposed method on several
well-known benchmark datasets, including synthetic and real-world unpaired
datasets. Extensive experiments on public benchmarks demonstrate that our
LLDiffusion outperforms state-of-the-art LLIE methods both quantitatively and
qualitatively. The source code and pre-trained models are available at
https://github.com/TaoWangzj/LLDiffusion.
- Abstract(参考訳): 現在の低照度画像強調(LLIE)の深層学習法は、通常、ペア化されたデータから学んだピクセルワイドマッピングに依存している。
しかし、これらの手法はしばしば劣化表現を考えることの重要性を見落とし、それが準最適結果をもたらす可能性がある。
本稿では,拡散モデルを用いてllieの分解・認識学習方式を提案することで,拡散過程に劣化と画像先行を効果的に統合することにより,画像のエンハンスメントが向上することを示す。
提案手法は, 低照度画像に現れる特定の劣化パターンを正確にモデル化し, キャプチャする上で, 劣化表現が重要な役割を担っていることに基づく。
この目的のために、まず、画像生成と画像強調の両方のための共同学習フレームワークを示し、分解表現を学習する。
第二に、学習した劣化表現を活用するために、よく設計された動的拡散モジュールを備えた低光拡散モデル(LLDiffusion)を開発する。
このモジュールは、拡散過程を導くために色地図と潜在劣化表現の両方を考慮に入れる。
これらの条件付け因子を組み込むことで、本提案のLDDiffusionは、本質的な劣化パターンと所望の色忠実度の両方を考慮して、効果的に低照度画像を強化することができる。
最後に,提案手法を,合成および実世界の未ペアデータセットを含む,よく知られたベンチマークデータセットで評価する。
公開ベンチマークの広範な実験により,我々のlldiffusionは定量的および定性的に最先端llie法よりも優れていることが示された。
ソースコードと事前トレーニングされたモデルは、https://github.com/taowangzj/lldiffusionで入手できる。
関連論文リスト
- One Step Diffusion-based Super-Resolution with Time-Aware Distillation [60.262651082672235]
拡散に基づく画像超解像(SR)法は,低解像度画像から細部まで細部まで,高解像度画像の再構成に有望であることを示す。
近年,拡散型SRモデルの知識蒸留によるサンプリング効率の向上が試みられている。
我々は,効率的な画像超解像を実現するため,TAD-SRというタイムアウェア拡散蒸留法を提案する。
論文 参考訳(メタデータ) (2024-08-14T11:47:22Z) - AGLLDiff: Guiding Diffusion Models Towards Unsupervised Training-free Real-world Low-light Image Enhancement [37.274077278901494]
本稿では,AGLLDiff (Atribute Guidance Diffusion framework) を提案する。
AGLLDiffはパラダイムをシフトし、通常光画像の露出、構造、色などの望ましい属性をモデル化する。
我々の手法は、歪みベースのメトリクスと知覚ベースのメトリクスの点で、現在の非教師なしのLIEメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-07-20T15:17:48Z) - DeeDSR: Towards Real-World Image Super-Resolution via Degradation-Aware Stable Diffusion [27.52552274944687]
低解像度画像のコンテンツや劣化を認識する拡散モデルの能力を高める新しい2段階の劣化認識フレームワークを提案する。
最初の段階では、教師なしのコントラスト学習を用いて画像劣化の表現を得る。
第2段階では、分解対応モジュールを単純化されたControlNetに統合し、様々な劣化への柔軟な適応を可能にします。
論文 参考訳(メタデータ) (2024-03-31T12:07:04Z) - Zero-LED: Zero-Reference Lighting Estimation Diffusion Model for Low-Light Image Enhancement [2.9873893715462185]
ゼロLEDと呼ばれる低照度画像強調のための新しいゼロ参照光推定拡散モデルを提案する。
拡散モデルの安定収束能力を利用して、低照度領域と実常照度領域の間のギャップを埋める。
ゼロ参照学習を通じてペアのトレーニングデータへの依存を緩和する。
論文 参考訳(メタデータ) (2024-03-05T11:39:17Z) - Global Structure-Aware Diffusion Process for Low-Light Image Enhancement [64.69154776202694]
本稿では,低照度画像強調問題に対処する拡散型フレームワークについて検討する。
我々は、その固有のODE-軌道の正規化を提唱する。
実験により,提案手法は低照度化において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-10-26T17:01:52Z) - Diffusion Models for Image Restoration and Enhancement -- A
Comprehensive Survey [96.99328714941657]
本稿では,近年の拡散モデルに基づく画像復元手法について概観する。
我々は、赤外線とブラインド/現実世界の両方で拡散モデルを用いて、革新的なデザインを分類し、強調する。
本稿では,拡散モデルに基づくIRの今後の研究に向けた5つの可能性と課題を提案する。
論文 参考訳(メタデータ) (2023-08-18T08:40:38Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - Training Diffusion Models with Reinforcement Learning [82.29328477109826]
拡散モデルは、ログのような目的に近似して訓練される。
本稿では,下流目的のための拡散モデルを直接最適化するための強化学習手法について検討する。
本稿では,多段階決定問題としてデノベーションを行うことによって,ポリシー勾配アルゴリズムのクラスを実現する方法について述べる。
論文 参考訳(メタデータ) (2023-05-22T17:57:41Z) - Learning Enhancement From Degradation: A Diffusion Model For Fundus
Image Enhancement [21.91300560770087]
我々は新しい拡散モデルに基づくフレームワーク、"Learning Enhancement from Degradation (LED)"を紹介した。
LEDは、画質の悪い画像から画質の悪い画像まで、分解マッピングを学習する。
LEDは、臨床的に重要な特徴をより明瞭に維持する強化結果を出力することができる。
論文 参考訳(メタデータ) (2023-03-08T14:14:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。