論文の概要: You Only Need One Color Space: An Efficient Network for Low-light Image Enhancement
- arxiv url: http://arxiv.org/abs/2402.05809v3
- Date: Mon, 17 Jun 2024 20:43:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-20 04:25:08.539059
- Title: You Only Need One Color Space: An Efficient Network for Low-light Image Enhancement
- Title(参考訳): 色空間は1つだけ:低照度画像強調のための効率的なネットワーク
- Authors: Qingsen Yan, Yixu Feng, Cheng Zhang, Pei Wang, Peng Wu, Wei Dong, Jinqiu Sun, Yanning Zhang,
- Abstract要約: 低照度画像強調(LLIE)タスクは、劣化した低照度画像から詳細と視覚情報を復元する傾向がある。
水平/垂直インテンシティ(HVI)と呼ばれる新しいトレーニング可能なカラー空間を提案する。
輝度と色をRGBチャネルから切り離して、拡張中の不安定性を緩和するだけでなく、トレーニング可能なパラメータによって異なる照明範囲の低照度画像にも適応する。
- 参考スコア(独自算出の注目度): 50.37253008333166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-Light Image Enhancement (LLIE) task tends to restore the details and visual information from corrupted low-light images. Most existing methods learn the mapping function between low/normal-light images by Deep Neural Networks (DNNs) on sRGB and HSV color space. Nevertheless, enhancement involves amplifying image signals, and applying these color spaces to low-light images with a low signal-to-noise ratio can introduce sensitivity and instability into the enhancement process. Consequently, this results in the presence of color artifacts and brightness artifacts in the enhanced images. To alleviate this problem, we propose a novel trainable color space, named Horizontal/Vertical-Intensity (HVI). It not only decouples brightness and color from RGB channels to mitigate the instability during enhancement but also adapts to low-light images in different illumination ranges due to the trainable parameters. Further, we design a novel Color and Intensity Decoupling Network (CIDNet) with two branches dedicated to processing the decoupled image brightness and color in the HVI space. Within CIDNet, we introduce the Lightweight Cross-Attention (LCA) module to facilitate interaction between image structure and content information in both branches, while also suppressing noise in low-light images. Finally, we conducted 22 quantitative and qualitative experiments to show that the proposed CIDNet outperforms the state-of-the-art methods on 11 datasets. The code is available at https://github.com/Fediory/HVI-CIDNet.
- Abstract(参考訳): 低照度画像強調(LLIE)タスクは、劣化した低照度画像から詳細と視覚情報を復元する傾向がある。
既存のほとんどの手法は、sRGBとHSV色空間上のディープニューラルネットワーク(DNN)により、低/正常光画像間のマッピング関数を学習する。
それでも、強調には画像信号の増幅が含まれており、これらの色空間を低信号対雑音比の低照度画像に適用することで、強調プロセスに感度と不安定性をもたらす可能性がある。
その結果、拡張された画像に色アーティファクトと明るさアーティファクトが存在することが判明した。
この問題を軽減するために,HVI (Horizontal/Vertical-Intensity) と呼ばれる新しいトレーニング可能なカラー空間を提案する。
輝度と色をRGBチャネルから切り離して、拡張中の不安定性を緩和するだけでなく、トレーニング可能なパラメータによって異なる照明範囲の低照度画像にも適応する。
さらに,分離した画像の明るさと色をHVI空間で処理するための2つの枝を持つ新しいカラー・インテンシティ・デカップリングネットワーク(CIDNet)を設計する。
CIDNet内では、低照度画像におけるノイズを抑えつつ、画像構造とコンテンツ情報の相互作用を容易にする軽量クロスアテンション(LCA)モジュールを導入している。
最後に,22種類の定量定性的実験を行い,提案したCIDNetが11個のデータセットの最先端手法より優れていることを示した。
コードはhttps://github.com/Fediory/HVI-CIDNetで公開されている。
関連論文リスト
- CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - Training Neural Networks on RAW and HDR Images for Restoration Tasks [59.41340420564656]
本研究は,3つの画像復元アプリケーション(デノイング,デブロアリング,シングルイメージ超解像)に対するアプローチを検証した。
その結果、ニューラルネットワークは、表示色空間で表現されるHDRおよびRAW画像において、かなりよく訓練されていることが示唆された。
トレーニング戦略へのこの小さな変更は、最大10~15dBのパフォーマンスを大幅に向上させることができます。
論文 参考訳(メタデータ) (2023-12-06T17:47:16Z) - Division Gets Better: Learning Brightness-Aware and Detail-Sensitive
Representations for Low-Light Image Enhancement [10.899693396348171]
LCDBNetは、輝度調整ネットワーク(LAN)と色復元ネットワーク(CRN)の2つのブランチで構成されている。
LANは、長距離依存と局所的な注意相関を利用した輝度認識機能を学ぶ責任を負う。
CRNはマルチレベルウェーブレット分解によるディテールセンシティブな特徴の学習に重点を置いている。
最後に、融合ネットワークは、学習した特徴をブレンドして視覚的に印象的な画像を生成するように設計されている。
論文 参考訳(メタデータ) (2023-07-18T09:52:48Z) - Seeing Through The Noisy Dark: Toward Real-world Low-Light Image
Enhancement and Denoising [125.56062454927755]
現実の低照度環境は通常、光やハードウェアの限界が不足しているため、視界が低く、騒音が重い。
我々は、RLED-Net(Real-world Low-light Enhancement & Denoising Network)と呼ばれる新しいエンドツーエンド手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:57:23Z) - Enhancing Low-Light Images in Real World via Cross-Image Disentanglement [58.754943762945864]
そこで本研究では,現実の汚職とミスアライメントされたトレーニング画像からなる,新しい低照度画像強調データセットを提案する。
本モデルでは,新たに提案したデータセットと,他の一般的な低照度データセットの両方に対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-01-10T03:12:52Z) - TSN-CA: A Two-Stage Network with Channel Attention for Low-Light Image
Enhancement [11.738203047278848]
本稿では,低照度画像の明るさを高めるために,チャネル注意型2段階ネットワーク(TSN-CA)を提案する。
本手法が明度向上に優れた効果を発揮できることを示すため,広範にわたる実験を行った。
論文 参考訳(メタデータ) (2021-10-06T03:20:18Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - Better Than Reference In Low Light Image Enhancement: Conditional
Re-Enhancement Networks [7.403383360312335]
本稿では,教師付き学習と過去のHSVやRetinexモデルに基づく画像強調手法を組み合わせた低照度画像強調手法を提案する。
データ駆動型条件付き再エンハンスメントネットワーク(CRENet)を提案する。
ネットワークは、低光画像を入力として、拡張Vチャンネルを条件として、低光画像のコントラストと明るさを再強調する。
論文 参考訳(メタデータ) (2020-08-26T08:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。