論文の概要: Diffusion-Based Low-Light Image Enhancement with Color and Luminance Priors
- arxiv url: http://arxiv.org/abs/2603.00337v1
- Date: Fri, 27 Feb 2026 22:15:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.146793
- Title: Diffusion-Based Low-Light Image Enhancement with Color and Luminance Priors
- Title(参考訳): 色と輝度を優先した拡散型低光画像強調
- Authors: Xuanshuo Fu, Lei Kang, Javier Vazquez-Corral,
- Abstract要約: 低照度画像は、しばしば低コントラスト、ノイズ、色歪みに悩まされ、視覚的品質を低下させ、下流の視覚タスクを損なう。
SCEM(Structured Control Embedding Module)を組み込んだ低照度画像強調のための新しい条件拡散フレームワークを提案する。
SCEMは低照度画像を4つの情報成分に分解する。
- 参考スコア(独自算出の注目度): 13.688097246812042
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-light images often suffer from low contrast, noise, and color distortion, degrading visual quality and impairing downstream vision tasks. We propose a novel conditional diffusion framework for low-light image enhancement that incorporates a Structured Control Embedding Module (SCEM). SCEM decomposes a low-light image into four informative components including illumination, illumination-invariant features, shadow priors, and color-invariant cues. These components serve as control signals that condition a U-Net-based diffusion model trained with a simplified noise-prediction loss. Thus, the proposed SCEM equipped Diffusion method enforces structured enhancement guided by physical priors. In experiments, our model is trained only on the LOLv1 dataset and evaluated without fine-tuning on LOLv2-real, LSRW, DICM, MEF, and LIME. The method achieves state-of-the-art performance in quantitative and perceptual metrics, demonstrating strong generalization across benchmarks. https://casted.github.io/scem/.
- Abstract(参考訳): 低照度画像は、しばしば低コントラスト、ノイズ、色歪みに悩まされ、視覚的品質を低下させ、下流の視覚タスクを損なう。
本研究では,SCEM(Structured Control Embedding Module)を組み込んだ低照度画像強調のための新しい条件拡散フレームワークを提案する。
SCEMは低照度画像を4つの情報成分に分解する。
これらの成分は、単純なノイズ予測損失で訓練されたU-Netベースの拡散モデルを条件付ける制御信号として機能する。
そこで, SCEM を用いた拡散法では, 物理的事前に導かれる構造的拡張を強制する。
実験では, LOLv2-real, LSRW, DICM, MEF, LIMEを微調整することなく, LOLv1データセットのみを用いてトレーニングを行った。
この手法は,定量的および知覚的メトリクスにおける最先端のパフォーマンスを達成し,ベンチマーク間の強い一般化を実証する。
https://casted.github.io/scem/。
関連論文リスト
- SAIGFormer: A Spatially-Adaptive Illumination-Guided Network for Low-Light Image Enhancement [58.79901582809091]
近年, トランスフォーマーを用いた低照度化手法は, 世界照明の回復に有望な進展をもたらした。
近年, トランスフォーマーを用いた低照度化手法は, 世界照明の回復に有望な進展をもたらした。
正確な照明復元を可能にする空間適応照明誘導変圧器フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-21T11:38:56Z) - LightLab: Controlling Light Sources in Images with Diffusion Models [49.83835236202516]
画像中の光源を微細かつパラメトリックに制御する拡散法を提案する。
我々は、光の線形性を利用して、ターゲット光源または周囲照明の制御された光の変化を描写した画像対を合成する。
提案手法は, ユーザの好みに基づいて, 従来の方法よりも優れた光編集結果が得られることを示す。
論文 参考訳(メタデータ) (2025-05-14T17:57:27Z) - Learning Physics-Informed Color-Aware Transforms for Low-Light Image Enhancement [5.8550460201927725]
本稿では,分解された物理情報に基づく低照度画像強調手法を提案する。
sRGB色空間における低照度画像と通常照度画像を直接マッピングする既存の方法は、一貫性のない色予測に悩まされている。
提案するPiCatフレームワークは,5つのベンチマークデータセットを対象とした最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2025-04-16T09:23:38Z) - LUMINA-Net: Low-light Upgrade through Multi-stage Illumination and Noise Adaptation Network for Image Enhancement [26.585985828583304]
低照度画像強調(LLIE)は、低照度条件下で撮影された画像の視覚的忠実度を高めることを目的としたコンピュータビジョンにおける重要な課題である。
LUMINA-Netは,多段照明と反射モジュールを統合することで,低照度画像ペアから適応的な事前学習を行う,教師なしのディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2025-02-21T03:37:58Z) - Unsupervised Low-light Image Enhancement with Lookup Tables and Diffusion Priors [38.96909959677438]
低照度画像強調(LIE)は、低照度環境において劣化した画像を高精度かつ効率的に回収することを目的としている。
近年の先進的なLIE技術は、多くの低正規の光画像対、ネットワークパラメータ、計算資源を必要とするディープニューラルネットワークを使用している。
拡散先行とルックアップテーブルに基づく新しい非教師付きLIEフレームワークを考案し,低照度画像の効率的な回復を実現する。
論文 参考訳(メタデータ) (2024-09-27T16:37:27Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - You Only Need One Color Space: An Efficient Network for Low-light Image Enhancement [50.37253008333166]
低照度画像強調(LLIE)タスクは、劣化した低照度画像から詳細と視覚情報を復元する傾向がある。
水平/垂直インテンシティ(HVI)と呼ばれる新しいトレーニング可能なカラー空間を提案する。
輝度と色をRGBチャネルから切り離して、拡張中の不安定性を緩和するだけでなく、トレーニング可能なパラメータによって異なる照明範囲の低照度画像にも適応する。
論文 参考訳(メタデータ) (2024-02-08T16:47:43Z) - LDM-ISP: Enhancing Neural ISP for Low Light with Latent Diffusion Models [54.93010869546011]
本稿では,事前学習した潜伏拡散モデルを用いて,超低照度画像の高精細化のためのニューラルISPを実現することを提案する。
具体的には、RAWドメイン上で動作するために事前訓練された潜在拡散モデルを調整するために、軽量なテーミングモジュールのセットをトレーニングする。
遅延拡散モデルにおけるUNet復調と復号化の異なる役割を観察し、低照度画像強調タスクを遅延空間低周波コンテンツ生成と復号位相高周波ディテール保守に分解するきっかけとなる。
論文 参考訳(メタデータ) (2023-12-02T04:31:51Z) - Retinexformer: One-stage Retinex-based Transformer for Low-light Image
Enhancement [96.09255345336639]
低照度画像の高精細化のために,原理化された1段Retinex-based Framework (ORF) を定式化する。
ORFはまず照明情報を推定し、低照度画像を照らす。
我々のアルゴリズムであるRetinexformerは13のベンチマークで最先端の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2023-03-12T16:54:08Z) - Semi-supervised atmospheric component learning in low-light image
problem [0.0]
環境照明条件は、写真装置から画像の知覚的品質を決定する上で重要な役割を担っている。
本研究では,低照度画像復元のための非参照画像品質指標を用いた半教師付きトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-04-15T17:06:33Z) - BLNet: A Fast Deep Learning Framework for Low-Light Image Enhancement
with Noise Removal and Color Restoration [14.75902042351609]
我々は、Bringing the Lightness(BLNet)と呼ばれる非常に高速なディープラーニングフレームワークを提案する。
Retinex Theoryに基づいて、我々のモデルにおける分解ネットは、低照度画像を反射率と照明に分解することができる。
提案手法は, 良好なルバスト性および一般化によって有望な効果を発揮することを示すため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-06-30T10:06:16Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。