論文の概要: DiffLLE: Diffusion-guided Domain Calibration for Unsupervised Low-light
Image Enhancement
- arxiv url: http://arxiv.org/abs/2308.09279v1
- Date: Fri, 18 Aug 2023 03:40:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 14:46:05.441974
- Title: DiffLLE: Diffusion-guided Domain Calibration for Unsupervised Low-light
Image Enhancement
- Title(参考訳): DiffLLE: 教師なし低照度画像強調のための拡散誘導領域校正
- Authors: Shuzhou Yang and Xuanyu Zhang and Yinhuai Wang and Jiwen Yu and Yuhan
Wang and Jian Zhang
- Abstract要約: 既存の教師なし低照度画像強調法は、実用上十分な有効性と一般化を欠いている。
DiffLLEと呼ばれる、より堅牢で効果的に教師なしの低照度化を実現するために拡散型領域校正を開発した。
我々の手法は、単純な教師なしベースラインのみを用いることで、教師なしメソッドよりも優れています。
- 参考スコア(独自算出の注目度): 21.356254176992937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing unsupervised low-light image enhancement methods lack enough
effectiveness and generalization in practical applications. We suppose this is
because of the absence of explicit supervision and the inherent gap between
real-world scenarios and the training data domain. In this paper, we develop
Diffusion-based domain calibration to realize more robust and effective
unsupervised Low-Light Enhancement, called DiffLLE. Since the diffusion model
performs impressive denoising capability and has been trained on massive clean
images, we adopt it to bridge the gap between the real low-light domain and
training degradation domain, while providing efficient priors of real-world
content for unsupervised models. Specifically, we adopt a naive unsupervised
enhancement algorithm to realize preliminary restoration and design two
zero-shot plug-and-play modules based on diffusion model to improve
generalization and effectiveness. The Diffusion-guided Degradation Calibration
(DDC) module narrows the gap between real-world and training low-light
degradation through diffusion-based domain calibration and a lightness
enhancement curve, which makes the enhancement model perform robustly even in
sophisticated wild degradation. Due to the limited enhancement effect of the
unsupervised model, we further develop the Fine-grained Target domain
Distillation (FTD) module to find a more visual-friendly solution space. It
exploits the priors of the pre-trained diffusion model to generate
pseudo-references, which shrinks the preliminary restored results from a coarse
normal-light domain to a finer high-quality clean field, addressing the lack of
strong explicit supervision for unsupervised methods. Benefiting from these,
our approach even outperforms some supervised methods by using only a simple
unsupervised baseline. Extensive experiments demonstrate the superior
effectiveness of the proposed DiffLLE.
- Abstract(参考訳): 既存の教師なし低照度画像強調法は、実用上十分な有効性と一般化を欠いている。
これは明示的な監督の欠如と、現実世界のシナリオとトレーニングデータドメインとの間に固有のギャップがあるためだと思います。
本稿では,より堅牢で効果的で教師なしな低光度エンハンスメントを実現するために拡散型領域校正法(difflle)を開発した。
拡散モデルは印象的な復調能力を発揮し,大規模なクリーンイメージで訓練されているので,教師なしモデルに対して,実世界のコンテンツに対する効率的な事前情報を提供しながら,実光領域とトレーニング劣化領域のギャップを埋めるために採用する。
具体的には,事前復元を実現するため,非教師なし拡張アルゴリズムを適用し,拡散モデルに基づく2つのゼロショットプラグアンドプレイモジュールの設計を行い,一般化と有効性を向上させる。
Diffusion-Guided Degradation Calibration (DDC)モジュールは、拡散型ドメインキャリブレーションと光度向上曲線により、現実世界と低光度劣化の訓練のギャップを狭め、高度な荒野劣化においても堅牢に機能する。
教師なしモデルの強化効果が限定されているため、より視覚に優しい解空間を見つけるために、より微細なターゲットドメイン蒸留(FTD)モジュールを開発する。
事前訓練された拡散モデルの先行性を利用して擬似参照を生成し、粗い正規光領域からより高品質なクリーンフィールドへの予備的な復元結果を縮小し、教師なし手法に対する強い明示的な監督の欠如に対処する。
この手法は, 単純な教師なしベースラインのみを用いることで, 教師付き手法よりも優れる。
広範な実験により,提案手法の有効性が示された。
関連論文リスト
- AGLLDiff: Guiding Diffusion Models Towards Unsupervised Training-free Real-world Low-light Image Enhancement [37.274077278901494]
本稿では,AGLLDiff (Atribute Guidance Diffusion framework) を提案する。
AGLLDiffはパラダイムをシフトし、通常光画像の露出、構造、色などの望ましい属性をモデル化する。
我々の手法は、歪みベースのメトリクスと知覚ベースのメトリクスの点で、現在の非教師なしのLIEメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-07-20T15:17:48Z) - Zero-LED: Zero-Reference Lighting Estimation Diffusion Model for Low-Light Image Enhancement [2.9873893715462185]
ゼロLEDと呼ばれる低照度画像強調のための新しいゼロ参照光推定拡散モデルを提案する。
拡散モデルの安定収束能力を利用して、低照度領域と実常照度領域の間のギャップを埋める。
ゼロ参照学習を通じてペアのトレーニングデータへの依存を緩和する。
論文 参考訳(メタデータ) (2024-03-05T11:39:17Z) - Global Structure-Aware Diffusion Process for Low-Light Image Enhancement [64.69154776202694]
本稿では,低照度画像強調問題に対処する拡散型フレームワークについて検討する。
我々は、その固有のODE-軌道の正規化を提唱する。
実験により,提案手法は低照度化において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-10-26T17:01:52Z) - Unsupervised Discovery of Interpretable Directions in h-space of
Pre-trained Diffusion Models [63.1637853118899]
本稿では,事前学習した拡散モデルのh空間における解釈可能な方向を特定するための,教師なしおよび学習に基づく最初の手法を提案する。
我々は、事前訓練された拡散モデルのh-スペースで動作するシフト制御モジュールを用いて、サンプルをシフトしたバージョンに操作する。
それらを共同で最適化することで、モデルは自然に絡み合った、解釈可能な方向を発見する。
論文 参考訳(メタデータ) (2023-10-15T18:44:30Z) - LLDiffusion: Learning Degradation Representations in Diffusion Models
for Low-Light Image Enhancement [118.83316133601319]
現在の低照度画像強調(LLIE)の深層学習法は、通常、ペア化されたデータから学んだピクセルワイドマッピングに依存している。
本稿では,拡散モデルを用いたLLIEの劣化認識学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-27T07:22:51Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - A Unified Conditional Framework for Diffusion-based Image Restoration [39.418415473235235]
画像復元のための拡散モデルに基づく統一条件付きフレームワークを提案する。
我々は、軽量なUNetを利用して初期ガイダンスと拡散モデルを予測し、指導の残余を学習する。
そこで本研究では,高解像度画像を扱うために,単純なステップ間パッチ分割方式を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:22:24Z) - Exploiting Diffusion Prior for Real-World Image Super-Resolution [75.5898357277047]
本稿では,事前学習したテキスト・画像拡散モデルにカプセル化された事前知識を視覚的超解像に活用するための新しいアプローチを提案する。
時間認識エンコーダを用いることで、事前学習した合成モデルを変更することなく、有望な復元結果が得られる。
論文 参考訳(メタデータ) (2023-05-11T17:55:25Z) - DiffusionAD: Norm-guided One-step Denoising Diffusion for Anomaly
Detection [89.49600182243306]
我々は拡散モデルを用いて再構成過程をノイズ・ツー・ノームパラダイムに再構成する。
本稿では,拡散モデルにおける従来の反復的復調よりもはるかに高速な高速な一段階復調パラダイムを提案する。
セグメント化サブネットワークは、入力画像とその異常のない復元を用いて画素レベルの異常スコアを予測する。
論文 参考訳(メタデータ) (2023-03-15T16:14:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。