論文の概要: Degradation-Consistent Learning via Bidirectional Diffusion for Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2507.18144v1
- Date: Thu, 24 Jul 2025 07:21:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:43.124382
- Title: Degradation-Consistent Learning via Bidirectional Diffusion for Low-Light Image Enhancement
- Title(参考訳): 低照度画像強調のための双方向拡散による劣化持続学習
- Authors: Jinhong He, Minglong Xue, Zhipu Liu, Mingliang Zhou, Aoxiang Ning, Palaiahnakote Shivakumara,
- Abstract要約: 低照度画像強調は、劣化した画像の視認性を改善し、人間の視覚的知覚とよりよく一致させることを目的としている。
本稿では,低照度画像と通常照度画像の両方の劣化過程を共同でモデル化する双方向拡散最適化機構を提案する。
本手法は,定量評価と定性評価の両方において最先端の手法より優れている。
- 参考スコア(独自算出の注目度): 15.619960776528362
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Low-light image enhancement aims to improve the visibility of degraded images to better align with human visual perception. While diffusion-based methods have shown promising performance due to their strong generative capabilities. However, their unidirectional modelling of degradation often struggles to capture the complexity of real-world degradation patterns, leading to structural inconsistencies and pixel misalignments. To address these challenges, we propose a bidirectional diffusion optimization mechanism that jointly models the degradation processes of both low-light and normal-light images, enabling more precise degradation parameter matching and enhancing generation quality. Specifically, we perform bidirectional diffusion-from low-to-normal light and from normal-to-low light during training and introduce an adaptive feature interaction block (AFI) to refine feature representation. By leveraging the complementarity between these two paths, our approach imposes an implicit symmetry constraint on illumination attenuation and noise distribution, facilitating consistent degradation learning and improving the models ability to perceive illumination and detail degradation. Additionally, we design a reflection-aware correction module (RACM) to guide color restoration post-denoising and suppress overexposed regions, ensuring content consistency and generating high-quality images that align with human visual perception. Extensive experiments on multiple benchmark datasets demonstrate that our method outperforms state-of-the-art methods in both quantitative and qualitative evaluations while generalizing effectively to diverse degradation scenarios. Code at https://github.com/hejh8/BidDiff
- Abstract(参考訳): 低照度画像強調は、劣化した画像の視認性を改善し、人間の視覚的知覚とよりよく一致させることを目的としている。
拡散に基づく手法は、その強力な生成能力のために有望な性能を示した。
しかし、分解の一方向モデリングは現実世界の劣化パターンの複雑さを捉えるのにしばしば苦労し、構造上の矛盾や画素の誤認識を引き起こす。
これらの課題に対処するため、低照度画像と通常照度画像の両方の劣化過程を共同でモデル化し、より正確な劣化パラメータマッチングと生成品質の向上を可能にする双方向拡散最適化機構を提案する。
具体的には、トレーニング中に低-正常光から正常-低光へ双方向拡散し、特徴表現を洗練させるために適応的特徴相互作用ブロック(AFI)を導入する。
これら2つの経路の相補性を活用することにより、照明減衰と雑音分布に暗黙の対称性の制約を課し、一貫した劣化学習を容易にし、照明と詳細劣化を知覚するモデルを改善する。
さらに,色復元後の色再現を誘導し,過剰に露光した領域を抑え,内容の整合性を確保し,人間の視覚に合わせた高品質な画像を生成するためのリフレクション・アウェア補正モジュール (RACM) を設計した。
複数のベンチマークデータセットに対する大規模な実験により,本手法は定量評価と定性評価の両方において最先端の手法よりも優れ,多様な劣化シナリオを効果的に一般化することを示した。
https://github.com/hejh8/BidDiff
関連論文リスト
- Nonlocal Retinex-Based Variational Model and its Deep Unfolding Twin for Low-Light Image Enhancement [3.174882428337821]
本稿では,Retinex分解に基づく低照度画像強調のための変分法を提案する。
低照度画像に色補正前処理ステップを適用し、分解時に観察された入力として使用する。
我々は、演算子を学習可能なネットワークに置き換える深層展開モデルを導入することにより、モデルを拡張する。
論文 参考訳(メタデータ) (2025-04-10T14:48:26Z) - One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - AGLLDiff: Guiding Diffusion Models Towards Unsupervised Training-free Real-world Low-light Image Enhancement [37.274077278901494]
本稿では,AGLLDiff (Atribute Guidance Diffusion framework) を提案する。
AGLLDiffはパラダイムをシフトし、通常光画像の露出、構造、色などの望ましい属性をモデル化する。
我々の手法は、歪みベースのメトリクスと知覚ベースのメトリクスの点で、現在の非教師なしのLIEメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-07-20T15:17:48Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - Zero-Reference Lighting Estimation Diffusion Model for Low-Light Image Enhancement [2.9873893715462185]
ゼロLEDと呼ばれる低照度画像強調のための新しいゼロ参照光推定拡散モデルを提案する。
拡散モデルの安定収束能力を利用して、低照度領域と実常照度領域の間のギャップを埋める。
ゼロ参照学習を通じてペアのトレーニングデータへの依存を緩和する。
論文 参考訳(メタデータ) (2024-03-05T11:39:17Z) - Global Structure-Aware Diffusion Process for Low-Light Image Enhancement [64.69154776202694]
本稿では,低照度画像強調問題に対処する拡散型フレームワークについて検討する。
我々は、その固有のODE-軌道の正規化を提唱する。
実験により,提案手法は低照度化において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-10-26T17:01:52Z) - LLDiffusion: Learning Degradation Representations in Diffusion Models
for Low-Light Image Enhancement [118.83316133601319]
現在の低照度画像強調(LLIE)の深層学習法は、通常、ペア化されたデータから学んだピクセルワイドマッピングに依存している。
本稿では,拡散モデルを用いたLLIEの劣化認識学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-27T07:22:51Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。