論文の概要: Self-supervised Low Light Image Enhancement and Denoising
- arxiv url: http://arxiv.org/abs/2103.00832v1
- Date: Mon, 1 Mar 2021 08:05:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:37:15.034988
- Title: Self-supervised Low Light Image Enhancement and Denoising
- Title(参考訳): 自己監督型低照度画像強調とデノナイジング
- Authors: Yu Zhang and Xiaoguang Di and Bin Zhang and Qingyan Li and Shiyu Yan
and Chunhui Wang
- Abstract要約: 本稿では,深層学習に基づく自己監視型低照度画像強調法を提案する。
画像コントラストを改善し、ノイズを同時に低減し、プレ/ポストデノーミングによるぼかしを避けることができる。
- 参考スコア(独自算出の注目度): 8.583910695494726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a self-supervised low light image enhancement method
based on deep learning, which can improve the image contrast and reduce noise
at the same time to avoid the blur caused by pre-/post-denoising. The method
contains two deep sub-networks, an Image Contrast Enhancement Network (ICE-Net)
and a Re-Enhancement and Denoising Network (RED-Net). The ICE-Net takes the low
light image as input and produces a contrast enhanced image. The RED-Net takes
the result of ICE-Net and the low light image as input, and can re-enhance the
low light image and denoise at the same time. Both of the networks can be
trained with low light images only, which is achieved by a Maximum Entropy
based Retinex (ME-Retinex) model and an assumption that noises are
independently distributed. In the ME-Retinex model, a new constraint on the
reflectance image is introduced that the maximum channel of the reflectance
image conforms to the maximum channel of the low light image and its entropy
should be the largest, which converts the decomposition of reflectance and
illumination in Retinex model to a non-ill-conditioned problem and allows the
ICE-Net to be trained with a self-supervised way. The loss functions of RED-Net
are carefully formulated to separate the noises and details during training,
and they are based on the idea that, if noises are independently distributed,
after the processing of smoothing filters (\eg mean filter), the gradient of
the noise part should be smaller than the gradient of the detail part. It can
be proved qualitatively and quantitatively through experiments that the
proposed method is efficient.
- Abstract(参考訳): 本論文では, 画像コントラストの改善とノイズ低減を同時に実現し, プリデノイジング/ポストデノイジングによるブレを回避する, 深層学習に基づく自己監視型低照度画像強調法を提案する。
この方法は、イメージコントラスト強化ネットワーク(ICE-Net)と再エンハンスメントおよびデノイジングネットワーク(RED-Net)の2つの深いサブネットワークを含む。
ICE-Netは低照度画像を入力としてコントラスト強調画像を生成する。
RED-NetはICE-Netと低光画像の結果を入力として取り、低光画像の再強調とデノネーズを同時に行うことができる。
どちらのネットワークも低光画像のみでトレーニングすることができ、これは最大エントロピーベースレチネックス(ME-Retinex)モデルとノイズが独立に分散しているという仮定によって達成される。
me-retinexモデルでは、反射率画像の最大チャンネルが低光度画像の最大チャンネルに合致し、エントロピーが最大となるように反射率画像に対する新たな制約を導入し、反射率モデルの反射率と照明の分解を非無条件問題に変換し、アイスネットを自己教師ありの方法で訓練できるようにする。
RED-Netの損失関数は、トレーニング中にノイズとディテールを分離するために慎重に策定されており、ノイズが独立して分散されている場合、スムージングフィルタ(リーガ平均フィルタ)の処理後、ノイズ部の勾配はディテール部のグラデーションよりも小さくなければならないという考えに基づいています。
提案手法が効率的であることを実験により定性的かつ定量的に証明することができる。
関連論文リスト
- Zero-Shot Enhancement of Low-Light Image Based on Retinex Decomposition [4.175396687130961]
本稿ではZERRINNetと呼ばれるゼロショット低照度化手法の学習に基づくRetinex分解を提案する。
本手法は,ペアとアンペアのデータセットのトレーニングデータの影響を受けないゼロ参照拡張手法である。
論文 参考訳(メタデータ) (2023-11-06T09:57:48Z) - Enhancing Low-light Light Field Images with A Deep Compensation
Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Enhancing Low-Light Images Using Infrared-Encoded Images [81.8710581927427]
従来の芸術は、主にピクセルワイド・ロスを用いて可視光スペクトルで捉えた低照度画像に焦点を当てていた。
我々は,赤外線カットオフフィルタを除去することにより,低照度環境下で撮影された画像の可視性を高める新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-09T08:29:19Z) - Cycle-Interactive Generative Adversarial Network for Robust Unsupervised
Low-Light Enhancement [109.335317310485]
CIGAN(Cycle-Interactive Generative Adversarial Network)は、低照度画像間の照明分布の転送を改善できるだけでなく、詳細な信号も操作できる。
特に、提案した低照度誘導変換は、低照度GAN生成器から劣化GAN生成器へ、低照度画像の特徴をフォワードする。
論文 参考訳(メタデータ) (2022-07-03T06:37:46Z) - An Effective Image Restorer: Denoising and Luminance Adjustment for
Low-photon-count Imaging [6.358214877782411]
量子画像センサ(QIS)のイメージングシミュレーションによる低光子数条件下での原像復元
我々は,多層ピラミッド遮音ネットワーク (MPDNet) と輝度調整モジュール (LA) から構成される軽量なフレームワークを開発し,個別の遮音・照度向上を実現する。
画像復元装置は、雑音を抑え、輝度と色を効果的に回復することにより、様々な光子レベルの劣化画像に対して優れた性能が得られる。
論文 参考訳(メタデータ) (2021-10-29T12:16:30Z) - BLNet: A Fast Deep Learning Framework for Low-Light Image Enhancement
with Noise Removal and Color Restoration [14.75902042351609]
我々は、Bringing the Lightness(BLNet)と呼ばれる非常に高速なディープラーニングフレームワークを提案する。
Retinex Theoryに基づいて、我々のモデルにおける分解ネットは、低照度画像を反射率と照明に分解することができる。
提案手法は, 良好なルバスト性および一般化によって有望な効果を発揮することを示すため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-06-30T10:06:16Z) - Neighbor2Neighbor: Self-Supervised Denoising from Single Noisy Images [98.82804259905478]
Neighbor2Neighborを提示し、ノイズの多い画像のみで効果的な画像消音モデルをトレーニングします。
ネットワークのトレーニングに使用される入力とターゲットは、同じノイズ画像からサブサンプリングされた画像である。
デノイジングネットワークは、第1段階で生成されたサブサンプルトレーニングペアで訓練され、提案された正規化器は、より良いパフォーマンスのための追加の損失として訓練される。
論文 参考訳(メタデータ) (2021-01-08T02:03:25Z) - Deep Bilateral Retinex for Low-Light Image Enhancement [96.15991198417552]
低照度画像は、低コントラスト、色歪み、測定ノイズによる視界の低下に悩まされる。
本稿では,低照度画像強調のための深層学習手法を提案する。
提案手法は最先端の手法と非常に競合し, 極めて低照度で撮影した画像の処理において, 他に比べて大きな優位性を有する。
論文 参考訳(メタデータ) (2020-07-04T06:26:44Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z) - Learning an Adaptive Model for Extreme Low-light Raw Image Processing [5.706764509663774]
画質向上のための適応型低照度生画像強調ネットワークを提案する。
提案手法は、最先端の低照度アルゴリズムと比較してノイズレベル推定(NLE)のスコアが低い。
ビデオ処理における潜在的な応用について概説する。
論文 参考訳(メタデータ) (2020-04-22T09:01:07Z) - Self-supervised Image Enhancement Network: Training with Low Light
Images Only [7.673186894097549]
本稿では,ディープラーニングに基づく自己監督型低光画像強調手法を提案する。
情報エントロピー理論とRetinexモデルに着想を得て,最大エントロピーに基づくRetinexモデルを提案した。
提案手法が処理速度と効果の観点から最先端に到達したことを実験により証明できる。
論文 参考訳(メタデータ) (2020-02-26T04:39:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。