論文の概要: Zero-LED: Zero-Reference Lighting Estimation Diffusion Model for Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2403.02879v2
- Date: Tue, 9 Jul 2024 08:33:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 23:51:16.453777
- Title: Zero-LED: Zero-Reference Lighting Estimation Diffusion Model for Low-Light Image Enhancement
- Title(参考訳): ゼロLED:低光画像強調のためのゼロ参照光推定拡散モデル
- Authors: Jinhong He, Minglong Xue, Aoxiang Ning, Chengyun Song,
- Abstract要約: ゼロLEDと呼ばれる低照度画像強調のための新しいゼロ参照光推定拡散モデルを提案する。
拡散モデルの安定収束能力を利用して、低照度領域と実常照度領域の間のギャップを埋める。
ゼロ参照学習を通じてペアのトレーニングデータへの依存を緩和する。
- 参考スコア(独自算出の注目度): 2.9873893715462185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion model-based low-light image enhancement methods rely heavily on paired training data, leading to limited extensive application. Meanwhile, existing unsupervised methods lack effective bridging capabilities for unknown degradation. To address these limitations, we propose a novel zero-reference lighting estimation diffusion model for low-light image enhancement called Zero-LED. It utilizes the stable convergence ability of diffusion models to bridge the gap between low-light domains and real normal-light domains and successfully alleviates the dependence on pairwise training data via zero-reference learning. Specifically, we first design the initial optimization network to preprocess the input image and implement bidirectional constraints between the diffusion model and the initial optimization network through multiple objective functions. Subsequently, the degradation factors of the real-world scene are optimized iteratively to achieve effective light enhancement. In addition, we explore a frequency-domain based and semantically guided appearance reconstruction module that encourages feature alignment of the recovered image at a fine-grained level and satisfies subjective expectations. Finally, extensive experiments demonstrate the superiority of our approach to other state-of-the-art methods and more significant generalization capabilities. We will open the source code upon acceptance of the paper.
- Abstract(参考訳): 拡散モデルに基づく低照度画像強調法は、ペア化されたトレーニングデータに大きく依存しているため、広範な応用が限られている。
一方、既存の教師なし手法では、未知の劣化に対して効果的なブリッジ機能がない。
これらの制約に対処するため、Zero-LEDと呼ばれる低照度画像強調のための新しいゼロ参照光推定拡散モデルを提案する。
拡散モデルの安定収束能力を利用して、低照度領域と実常照度領域の間のギャップを埋め、ゼロ参照学習を通じてペアのトレーニングデータへの依存を緩和する。
具体的には,まず,入力画像の前処理を行う初期最適化ネットワークを設計し,複数の目的関数を通じて拡散モデルと初期最適化ネットワークとの間の双方向制約を実装する。
その後、実世界のシーンの劣化要因を反復的に最適化し、効果的な光強調を実現する。
さらに、周波数領域に基づくセマンティックガイド付き外観再構成モジュールを探索し、得られた画像の特徴的アライメントをきめ細かなレベルで促進し、主観的な期待を満足させる。
最後に、より広範な実験により、我々のアプローチが他の最先端手法やより重要な一般化能力に優越していることが示される。
論文の受理後、ソースコードを公開します。
関連論文リスト
- ReCo-Diff: Explore Retinex-Based Condition Strategy in Diffusion Model
for Low-Light Image Enhancement [70.10216029444543]
低照度画像強調(LLIE)は条件付き拡散モデルを用いて有望な性能を実現している。
Reco-DiffはRetinexベースの事前処理を付加的な前処理条件として組み込んだ新しいアプローチである。
論文 参考訳(メタデータ) (2023-12-20T08:05:57Z) - Global Structure-Aware Diffusion Process for Low-Light Image Enhancement [64.69154776202694]
本稿では,低照度画像強調問題に対処する拡散型フレームワークについて検討する。
我々は、その固有のODE-軌道の正規化を提唱する。
実験により,提案手法は低照度化において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-10-26T17:01:52Z) - DiffLLE: Diffusion-guided Domain Calibration for Unsupervised Low-light
Image Enhancement [21.356254176992937]
既存の教師なし低照度画像強調法は、実用上十分な有効性と一般化を欠いている。
DiffLLEと呼ばれる、より堅牢で効果的に教師なしの低照度化を実現するために拡散型領域校正を開発した。
我々の手法は、単純な教師なしベースラインのみを用いることで、教師なしメソッドよりも優れています。
論文 参考訳(メタデータ) (2023-08-18T03:40:40Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Dual Degradation-Inspired Deep Unfolding Network for Low-Light Image
Enhancement [3.4929041108486185]
低照度画像強調のためのDual degrAdation-inSpired Deep Unfolding Network(DASUNet)を提案する。
輝度空間と色空間の間の劣化特異性を考慮することによって、2つの異なる画像先行性を学ぶ。
ソースコードと事前訓練されたモデルは公開されます。
論文 参考訳(メタデータ) (2023-08-05T03:07:11Z) - LLDiffusion: Learning Degradation Representations in Diffusion Models
for Low-Light Image Enhancement [118.83316133601319]
現在の低照度画像強調(LLIE)の深層学習法は、通常、ペア化されたデータから学んだピクセルワイドマッピングに依存している。
本稿では,拡散モデルを用いたLLIEの劣化認識学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-27T07:22:51Z) - ExposureDiffusion: Learning to Expose for Low-light Image Enhancement [87.08496758469835]
この研究は、拡散モデルと物理ベースの露光モデルとをシームレスに統合することで、この問題に対処する。
提案手法は,バニラ拡散モデルと比較して性能が大幅に向上し,推論時間を短縮する。
提案するフレームワークは、実際のペア付きデータセット、SOTAノイズモデル、および異なるバックボーンネットワークの両方で動作する。
論文 参考訳(メタデータ) (2023-07-15T04:48:35Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。