論文の概要: Brightness Perceiving for Recursive Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2504.02362v1
- Date: Thu, 03 Apr 2025 07:53:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:55:18.416372
- Title: Brightness Perceiving for Recursive Low-Light Image Enhancement
- Title(参考訳): 再帰的低光画像強調のための明度評価
- Authors: Haodian Wang, Long Peng, Yuejin Sun, Zengyu Wan, Yang Wang, Yang Cao,
- Abstract要約: 本稿では,高ダイナミックレンジ低照度画像強調のための輝度知覚に基づくフレームワークを提案する。
アダプティブ・コントラストとテクスチャ・エンハンスメント・ネットワーク(ACT-Net)とブライトネス・パーセプション・ネットワーク(BP-Net)の2つの並列サブネットワークで構成されている。
提案手法は,既存の11種類の代表法と比較し,参照基準と参照基準を含まない新しいSOTA性能を実現する。
- 参考スコア(独自算出の注目度): 8.926230015423624
- License:
- Abstract: Due to the wide dynamic range in real low-light scenes, there will be large differences in the degree of contrast degradation and detail blurring of captured images, making it difficult for existing end-to-end methods to enhance low-light images to normal exposure. To address the above issue, we decompose low-light image enhancement into a recursive enhancement task and propose a brightness-perceiving-based recursive enhancement framework for high dynamic range low-light image enhancement. Specifically, our recursive enhancement framework consists of two parallel sub-networks: Adaptive Contrast and Texture enhancement network (ACT-Net) and Brightness Perception network (BP-Net). The ACT-Net is proposed to adaptively enhance image contrast and details under the guidance of the brightness adjustment branch and gradient adjustment branch, which are proposed to perceive the degradation degree of contrast and details in low-light images. To adaptively enhance images captured under different brightness levels, BP-Net is proposed to control the recursive enhancement times of ACT-Net by exploring the image brightness distribution properties. Finally, in order to coordinate ACT-Net and BP-Net, we design a novel unsupervised training strategy to facilitate the training procedure. To further validate the effectiveness of the proposed method, we construct a new dataset with a broader brightness distribution by mixing three low-light datasets. Compared with eleven existing representative methods, the proposed method achieves new SOTA performance on six reference and no reference metrics. Specifically, the proposed method improves the PSNR by 0.9 dB compared to the existing SOTA method.
- Abstract(参考訳): 実際の低照度シーンでは、ダイナミックレンジが広いため、コントラスト劣化の程度や、撮影画像の細かなぼかしの程度に大きな違いがあり、従来のエンド・ツー・エンドの手法では、低照度画像を通常の露光に拡張することは困難である。
上記の課題に対処するため、低照度画像強調を再帰的拡張タスクに分解し、高ダイナミックレンジ低照度画像強調のための輝度知覚に基づく再帰的拡張フレームワークを提案する。
具体的には、アダプティブ・コントラストとテクスチャ・エンハンスメント・ネットワーク(ACT-Net)とブライトネス・パーセプション・ネットワーク(BP-Net)の2つの並列サブネットワークから構成される。
ACT-Netは、輝度調整枝と勾配調整枝の指導の下で画像コントラストと詳細を適応的に強化し、低照度画像におけるコントラストと詳細の劣化度を知覚するために提案されている。
BP-Netは、異なる輝度レベルで撮像された画像を適応的に強調するため、画像輝度分布特性を探索することにより、ACT-Netの再帰的拡張時間を制御する。
最後に,ACT-Net と BP-Net を協調させるため,トレーニング手順を容易にするための新しい教師なしトレーニング戦略を設計する。
提案手法の有効性をさらに検証するため,3つの低照度データセットを混合することにより,より広い輝度分布を持つ新しいデータセットを構築した。
提案手法は,既存の11種類の代表法と比較し,参照基準と参照基準を含まない新しいSOTA性能を実現する。
具体的には,既存のSOTA法と比較してPSNRを0.9dB改善する。
関連論文リスト
- CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - Low-Light Image Enhancement with Illumination-Aware Gamma Correction and
Complete Image Modelling Network [69.96295927854042]
低照度環境は通常、情報の少ない大規模な暗黒地帯に繋がる。
本稿では,ガンマ補正の有効性を深層ネットワークのモデリング能力と統合することを提案する。
指数関数演算は高い計算複雑性をもたらすので、Taylor Series を用いてガンマ補正を近似することを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:46:51Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Division Gets Better: Learning Brightness-Aware and Detail-Sensitive
Representations for Low-Light Image Enhancement [10.899693396348171]
LCDBNetは、輝度調整ネットワーク(LAN)と色復元ネットワーク(CRN)の2つのブランチで構成されている。
LANは、長距離依存と局所的な注意相関を利用した輝度認識機能を学ぶ責任を負う。
CRNはマルチレベルウェーブレット分解によるディテールセンシティブな特徴の学習に重点を置いている。
最後に、融合ネットワークは、学習した特徴をブレンドして視覚的に印象的な画像を生成するように設計されている。
論文 参考訳(メタデータ) (2023-07-18T09:52:48Z) - Learning a Single Convolutional Layer Model for Low Light Image
Enhancement [43.411846299085575]
低照度画像強調(LLIE)は、光照射不足による画像の照度向上を目的としている。
粗く強化された結果として,グローバルな低照度化を実現する単一畳み込み層モデル(SCLM)を提案する。
実験結果から,提案手法は客観的指標と主観的視覚効果の両方において,最先端のLLIE法に対して良好に機能することが示された。
論文 参考訳(メタデータ) (2023-05-23T13:12:00Z) - Deep Quantigraphic Image Enhancement via Comparametric Equations [15.782217616496055]
本稿では,低照度画像と照明マップから拡張画像への変換を多様化する,新しいトレーニング可能なモジュールを提案する。
提案手法は,深部画像強調の柔軟性を向上し,計算負荷を照明推定に制限し,様々なタスクの多様な要求に適応可能な教師なし学習を可能にする。
論文 参考訳(メタデータ) (2023-04-05T08:14:41Z) - Low-light Image Enhancement by Retinex Based Algorithm Unrolling and
Adjustment [50.13230641857892]
本稿では,低照度画像強調(LIE)問題に対する新たなディープラーニングフレームワークを提案する。
提案フレームワークは,大域的明るさと局所的明るさ感度の両方を考慮したアルゴリズムアンロールと調整ネットワークに着想を得た分解ネットワークを含む。
一連の典型的なLIEデータセットの実験では,既存の手法と比較して,定量的かつ視覚的に,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-02-12T03:59:38Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。