論文の概要: ReF-LLE: Personalized Low-Light Enhancement via Reference-Guided Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2506.22216v1
- Date: Fri, 27 Jun 2025 13:35:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.21202
- Title: ReF-LLE: Personalized Low-Light Enhancement via Reference-Guided Deep Reinforcement Learning
- Title(参考訳): ReF-LLE: 参照誘導深部強化学習によるパーソナライズされた低光強調
- Authors: Ming Zhao, Pingping Liu, Tongshun Zhang, Zhe Zhang,
- Abstract要約: ReF-LLEは、フーリエ周波数領域で動作し、深層強化学習を取り入れた、パーソナライズされた低照度画像強調手法である。
推論フェーズでは、ReF-LLEはFourierドメインのゼロ周波数成分によって導かれる、パーソナライズされた適応的反復戦略を採用する。
ベンチマークデータセットの実験では、ReF-LLEが最先端のメソッドより優れていることが示されている。
- 参考スコア(独自算出の注目度): 7.873244458995218
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light image enhancement presents two primary challenges: 1) Significant variations in low-light images across different conditions, and 2) Enhancement levels influenced by subjective preferences and user intent. To address these issues, we propose ReF-LLE, a novel personalized low-light image enhancement method that operates in the Fourier frequency domain and incorporates deep reinforcement learning. ReF-LLE is the first to integrate deep reinforcement learning into this domain. During training, a zero-reference image evaluation strategy is introduced to score enhanced images, providing reward signals that guide the model to handle varying degrees of low-light conditions effectively. In the inference phase, ReF-LLE employs a personalized adaptive iterative strategy, guided by the zero-frequency component in the Fourier domain, which represents the overall illumination level. This strategy enables the model to adaptively adjust low-light images to align with the illumination distribution of a user-provided reference image, ensuring personalized enhancement results. Extensive experiments on benchmark datasets demonstrate that ReF-LLE outperforms state-of-the-art methods, achieving superior perceptual quality and adaptability in personalized low-light image enhancement.
- Abstract(参考訳): 低照度画像強調には2つの課題がある。
1) 異なる条件における低照度画像の有意な変動
2)主観的嗜好とユーザ意図に影響されたレベルの向上。
これらの問題に対処するため、フーリエ周波数領域で動作し、深い強化学習を取り入れた、パーソナライズされた低照度画像強調手法であるReF-LLEを提案する。
ReF-LLEは、このドメインに深い強化学習を統合する最初のものである。
トレーニング中、強調画像を評価するためにゼロ参照画像評価戦略を導入し、様々な低照度条件を効果的に扱うようモデルに誘導する報奨信号を提供する。
推論フェーズでは、ReF-LLEはパーソナライズされた適応的反復戦略を採用し、フーリエ領域のゼロ周波数成分によって導かれる。
この戦略により、低照度画像を適応的に調整し、ユーザが提供する参照画像の照度分布に合わせて、パーソナライズされた拡張結果を確保することができる。
ベンチマークデータセットの大規模な実験により、ReF-LLEは最先端の手法よりも優れており、パーセプティブな低照度画像強調において、知覚品質と適応性が優れたことが示されている。
関連論文リスト
- ALEN: A Dual-Approach for Uniform and Non-Uniform Low-Light Image Enhancement [10.957431540794836]
不適切な照明は、情報損失や画質の低下を招き、監視などの様々な応用に影響を及ぼす可能性がある。
現在のエンハンスメント技術は、しばしば特定のデータセットを使用して低照度画像を強化するが、様々な現実世界の条件に適応する際の課題は残る。
アダプティブ・ライト・エンハンスメント・ネットワーク (ALEN) を導入し、その主なアプローチは、ローカル照明とグローバル照明の強化が必要であるかどうかを決定するための分類機構を使用することである。
論文 参考訳(メタデータ) (2024-07-29T05:19:23Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。