論文の概要: Zero-LED: Zero-Reference Lighting Estimation Diffusion Model for
Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2403.02879v1
- Date: Tue, 5 Mar 2024 11:39:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 15:08:52.889431
- Title: Zero-LED: Zero-Reference Lighting Estimation Diffusion Model for
Low-Light Image Enhancement
- Title(参考訳): ゼロLED:低光画像強調のためのゼロ参照光推定拡散モデル
- Authors: Jinhong He, Minglong Xue, Zhipu Liu, Chengyun Song, Senming Zhong
- Abstract要約: ゼロLEDと呼ばれる低照度画像強調のための新しいゼロ参照光推定拡散モデルを提案する。
拡散モデルの安定収束能力を利用して、低照度領域と実常照度領域の間のギャップを埋める。
ゼロ参照学習を通じてペアのトレーニングデータへの依存を緩和する。
- 参考スコア(独自算出の注目度): 5.049812996253858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion model-based low-light image enhancement methods rely heavily on
paired training data, leading to limited extensive application. Meanwhile,
existing unsupervised methods lack effective bridging capabilities for unknown
degradation. To address these limitations, we propose a novel zero-reference
lighting estimation diffusion model for low-light image enhancement called
Zero-LED. It utilizes the stable convergence ability of diffusion models to
bridge the gap between low-light domains and real normal-light domains and
successfully alleviates the dependence on pairwise training data via
zero-reference learning. Specifically, we first design the initial optimization
network to preprocess the input image and implement bidirectional constraints
between the diffusion model and the initial optimization network through
multiple objective functions. Subsequently, the degradation factors of the
real-world scene are optimized iteratively to achieve effective light
enhancement. In addition, we explore a frequency-domain based and semantically
guided appearance reconstruction module that encourages feature alignment of
the recovered image at a fine-grained level and satisfies subjective
expectations. Finally, extensive experiments demonstrate the superiority of our
approach to other state-of-the-art methods and more significant generalization
capabilities. We will open the source code upon acceptance of the paper.
- Abstract(参考訳): 拡散モデルに基づく低光度画像強調手法は、ペアトレーニングデータに大きく依存しており、広範な応用が制限されている。
一方、既存の教師なし手法では、未知の劣化に対して効果的なブリッジ機能がない。
これらの制約に対処するために,ゼロledと呼ばれる低光度画像強調のためのゼロ参照照明推定拡散モデルを提案する。
拡散モデルの安定収束能力を利用して、ローライト領域と実際のノーマルライト領域の間のギャップを橋渡しし、ゼロリファレンス学習によるペアワイズトレーニングデータへの依存を緩和する。
具体的には、まず初期最適化ネットワークを設計し、複数の目的関数を通して拡散モデルと初期最適化ネットワークの間の双方向制約を実装する。
次いで、実世界のシーンの劣化要因を反復的に最適化し、効果的な光強調を実現する。
さらに,得られた画像の特徴的アライメントを細粒度に促進し,主観的期待値を満たす周波数領域ベースで意味的に誘導された外観再構成モジュールを探索する。
最後に、他の最先端手法とより重要な一般化能力に対する我々のアプローチの優位性を示す。
論文が受け入れられ次第、ソースコードをオープンします。
関連論文リスト
- Unsupervised Low-light Image Enhancement with Lookup Tables and Diffusion Priors [38.96909959677438]
低照度画像強調(LIE)は、低照度環境において劣化した画像を高精度かつ効率的に回収することを目的としている。
近年の先進的なLIE技術は、多くの低正規の光画像対、ネットワークパラメータ、計算資源を必要とするディープニューラルネットワークを使用している。
拡散先行とルックアップテーブルに基づく新しい非教師付きLIEフレームワークを考案し,低照度画像の効率的な回復を実現する。
論文 参考訳(メタデータ) (2024-09-27T16:37:27Z) - Global Structure-Aware Diffusion Process for Low-Light Image Enhancement [64.69154776202694]
本稿では,低照度画像強調問題に対処する拡散型フレームワークについて検討する。
我々は、その固有のODE-軌道の正規化を提唱する。
実験により,提案手法は低照度化において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-10-26T17:01:52Z) - DiffLLE: Diffusion-guided Domain Calibration for Unsupervised Low-light
Image Enhancement [21.356254176992937]
既存の教師なし低照度画像強調法は、実用上十分な有効性と一般化を欠いている。
DiffLLEと呼ばれる、より堅牢で効果的に教師なしの低照度化を実現するために拡散型領域校正を開発した。
我々の手法は、単純な教師なしベースラインのみを用いることで、教師なしメソッドよりも優れています。
論文 参考訳(メタデータ) (2023-08-18T03:40:40Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Dual Degradation-Inspired Deep Unfolding Network for Low-Light Image
Enhancement [3.4929041108486185]
低照度画像強調のためのDual degrAdation-inSpired Deep Unfolding Network(DASUNet)を提案する。
輝度空間と色空間の間の劣化特異性を考慮することによって、2つの異なる画像先行性を学ぶ。
ソースコードと事前訓練されたモデルは公開されます。
論文 参考訳(メタデータ) (2023-08-05T03:07:11Z) - LLDiffusion: Learning Degradation Representations in Diffusion Models
for Low-Light Image Enhancement [118.83316133601319]
現在の低照度画像強調(LLIE)の深層学習法は、通常、ペア化されたデータから学んだピクセルワイドマッピングに依存している。
本稿では,拡散モデルを用いたLLIEの劣化認識学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-27T07:22:51Z) - ExposureDiffusion: Learning to Expose for Low-light Image Enhancement [87.08496758469835]
この研究は、拡散モデルと物理ベースの露光モデルとをシームレスに統合することで、この問題に対処する。
提案手法は,バニラ拡散モデルと比較して性能が大幅に向上し,推論時間を短縮する。
提案するフレームワークは、実際のペア付きデータセット、SOTAノイズモデル、および異なるバックボーンネットワークの両方で動作する。
論文 参考訳(メタデータ) (2023-07-15T04:48:35Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - TensoIR: Tensorial Inverse Rendering [51.57268311847087]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。