論文の概要: Zero-Shot Enhancement of Low-Light Image Based on Retinex Decomposition
- arxiv url: http://arxiv.org/abs/2311.02995v1
- Date: Mon, 6 Nov 2023 09:57:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 14:47:13.482401
- Title: Zero-Shot Enhancement of Low-Light Image Based on Retinex Decomposition
- Title(参考訳): レチネックス分解による低光度画像のゼロショット強調
- Authors: Wenchao Li, Bangshu Xiong, Qiaofeng Ou, Xiaoyun Long, Jinhao Zhu,
Jiabao Chen and Shuyuan Wen
- Abstract要約: 本稿ではZERRINNetと呼ばれるゼロショット低照度化手法の学習に基づくRetinex分解を提案する。
本手法は,ペアとアンペアのデータセットのトレーニングデータの影響を受けないゼロ参照拡張手法である。
- 参考スコア(独自算出の注目度): 4.175396687130961
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Two difficulties here make low-light image enhancement a challenging task;
firstly, it needs to consider not only luminance restoration but also image
contrast, image denoising and color distortion issues simultaneously. Second,
the effectiveness of existing low-light enhancement methods depends on paired
or unpaired training data with poor generalization performance.
To solve these difficult problems, we propose in this paper a new
learning-based Retinex decomposition of zero-shot low-light enhancement method,
called ZERRINNet. To this end, we first designed the N-Net network, together
with the noise loss term, to be used for denoising the original low-light image
by estimating the noise of the low-light image. Moreover, RI-Net is used to
estimate the reflection component and illumination component, and in order to
solve the color distortion and contrast, we use the texture loss term and
segmented smoothing loss to constrain the reflection component and illumination
component. Finally, our method is a zero-reference enhancement method that is
not affected by the training data of paired and unpaired datasets, so our
generalization performance is greatly improved, and in the paper, we have
effectively validated it with a homemade real-life low-light dataset and
additionally with advanced vision tasks, such as face detection, target
recognition, and instance segmentation. We conducted comparative experiments on
a large number of public datasets and the results show that the performance of
our method is competitive compared to the current state-of-the-art methods. The
code is available at:https://github.com/liwenchao0615/ZERRINNet
- Abstract(参考訳): ここでは、低照度画像強調を困難な課題にしている。第一に、輝度復元だけでなく、画像コントラスト、画像デノイング、色歪みを同時に考慮する必要がある。
第2に、既存の低照度強調手法の有効性は、一般化性能の悪いペア・ペアトレーニングデータに依存する。
そこで本稿では,ZERRINNetと呼ばれるゼロショット低光強調手法の学習に基づくRetinex分解法を提案する。
そこで我々はまず,N-Netネットワークをノイズロス項とともに設計し,低照度画像の雑音を推定することにより,元の低照度画像の雑音化に用いる。
さらに、RI-Netを用いて反射成分と照明成分を推定し、色歪みとコントラストを解決するために、テクスチャ損失項とセグメントスムージング損失を用いて反射成分と照明成分を制約する。
最後に,提案手法は,ペア化データセットとアンペア化データセットのトレーニングデータの影響を受けないゼロ参照向上手法であり,一般化性能が大幅に向上し,本論文では,自家製の実生活低照度データセットと,顔検出,ターゲット認識,インスタンスセグメンテーションといった高度な視覚タスクで有効に検証した。
本研究では,多数の公開データセットについて比較実験を行い,現状の手法と比較して,本手法の性能が競合していることを示す。
コードは、https://github.com/liwenchao0615/ZERRINNetで入手できる。
関連論文リスト
- Boosting Object Detection with Zero-Shot Day-Night Domain Adaptation [33.142262765252795]
精巧なデータで訓練された検出器は、可視性が低いため、低照度データに対して顕著な性能低下を示す。
我々は、ゼロショット昼夜領域適応による低照度物体検出の高速化を提案する。
本手法は,低照度データを必要とすることなく,高照度シナリオから低照度シナリオへの検出器の一般化を行う。
論文 参考訳(メタデータ) (2023-12-02T20:11:48Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - Retinex Image Enhancement Based on Sequential Decomposition With a
Plug-and-Play Framework [16.579397398441102]
画像強調とノイズ除去を同時に行うために,Retinex理論に基づくプラグイン・アンド・プレイ・フレームワークを設計する。
我々のフレームワークは、画像の強調とデノーミングの両面で最先端の手法に勝っている。
論文 参考訳(メタデータ) (2022-10-11T13:29:10Z) - KinD-LCE Curve Estimation And Retinex Fusion On Low-Light Image [7.280719886684936]
本稿では,低照度化のためのアルゴリズムを提案する。
KinD-LCEは、Retinex分解画像の照明マップを強化するために光曲線推定モジュールを使用する。
照明マップと反射マップ融合モジュールも提案され、画像の詳細を復元し、詳細損失を低減した。
論文 参考訳(メタデータ) (2022-07-19T11:49:21Z) - Enhancing Low-Light Images in Real World via Cross-Image Disentanglement [58.754943762945864]
そこで本研究では,現実の汚職とミスアライメントされたトレーニング画像からなる,新しい低照度画像強調データセットを提案する。
本モデルでは,新たに提案したデータセットと,他の一般的な低照度データセットの両方に対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-01-10T03:12:52Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - BLNet: A Fast Deep Learning Framework for Low-Light Image Enhancement
with Noise Removal and Color Restoration [14.75902042351609]
我々は、Bringing the Lightness(BLNet)と呼ばれる非常に高速なディープラーニングフレームワークを提案する。
Retinex Theoryに基づいて、我々のモデルにおける分解ネットは、低照度画像を反射率と照明に分解することができる。
提案手法は, 良好なルバスト性および一般化によって有望な効果を発揮することを示すため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-06-30T10:06:16Z) - R2RNet: Low-light Image Enhancement via Real-low to Real-normal Network [7.755223662467257]
本稿ではR2RNetと呼ばれる低照度画像強調のための新しいReal-low to Real-normal Networkを提案する。
合成画像で訓練された他のほとんどの方法とは異なり、我々は最初の大規模実世界ペアロー/ノーマルライト画像データセットを収集する。
提案手法はコントラストを適切に改善し,ノイズを同時に抑制することができる。
論文 参考訳(メタデータ) (2021-06-28T09:33:13Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - Deep Bilateral Retinex for Low-Light Image Enhancement [96.15991198417552]
低照度画像は、低コントラスト、色歪み、測定ノイズによる視界の低下に悩まされる。
本稿では,低照度画像強調のための深層学習手法を提案する。
提案手法は最先端の手法と非常に競合し, 極めて低照度で撮影した画像の処理において, 他に比べて大きな優位性を有する。
論文 参考訳(メタデータ) (2020-07-04T06:26:44Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。