論文の概要: NoiSER: Noise is All You Need for Enhancing Low-Light Images Without
Task-Related Data
- arxiv url: http://arxiv.org/abs/2211.04700v1
- Date: Wed, 9 Nov 2022 06:18:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 16:55:36.637484
- Title: NoiSER: Noise is All You Need for Enhancing Low-Light Images Without
Task-Related Data
- Title(参考訳): NoiSER:ノイズはタスク関連データなしで低照度画像をエンハンスするのに必要
- Authors: Zhao Zhang, Suiyi Zhao, Xiaojie Jin, Mingliang Xu, Yi Yang, Shuicheng
Yan
- Abstract要約: タスク関連のトレーニングデータなしで、低照度画像を拡張できることが示される。
技術的には、アンダーラインノイズと呼ばれる新しい、魔法的で、効果的で効率的な方法を提案する。
我々のNoiSERは、量的および視覚的な結果の観点から、現在のタスク関連データに基づくLLIEモデルと非常に競合しています。
- 参考スコア(独自算出の注目度): 103.04999391668753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper is about an extraordinary phenomenon. Suppose we don't use any
low-light images as training data, can we enhance a low-light image by deep
learning? Obviously, current methods cannot do this, since deep neural networks
require to train their scads of parameters using copious amounts of training
data, especially task-related data. In this paper, we show that in the context
of fundamental deep learning, it is possible to enhance a low-light image
without any task-related training data. Technically, we propose a new, magical,
effective and efficient method, termed \underline{Noi}se
\underline{SE}lf-\underline{R}egression (NoiSER), which learns a gray-world
mapping from Gaussian distribution for low-light image enhancement (LLIE).
Specifically, a self-regression model is built as a carrier to learn a
gray-world mapping during training, which is performed by simply iteratively
feeding random noise. During inference, a low-light image is directly fed into
the learned mapping to yield a normal-light one. Extensive experiments show
that our NoiSER is highly competitive to current task-related data based LLIE
models in terms of quantitative and visual results, while outperforming them in
terms of the number of parameters, training time and inference speed. With only
about 1K parameters, NoiSER realizes about 1 minute for training and 1.2 ms for
inference with 600$\times$400 resolution on RTX 2080 Ti. Besides, NoiSER has an
inborn automated exposure suppression capability and can automatically adjust
too bright or too dark, without additional manipulations.
- Abstract(参考訳): この論文は異常な現象に関するものである。
低照度画像をトレーニングデータとして使用しない場合,ディープラーニングによる低照度画像の強化は可能か?
ディープニューラルネットワークは、膨大なトレーニングデータ、特にタスク関連のデータを使って、パラメータのスケードをトレーニングする必要があるため、現在の手法ではそうはならない。
本稿では,基本的な深層学習の文脈において,タスク関連のトレーニングデータなしで低照度画像を向上させることができることを示す。
本稿では,低照度画像強調(LLIE)のためのガウス分布からグレーワールドマッピングを学習する,新しい,魔法的,効果的で効率的な手法である,Shaunderline{Noi}se \underline{SE}lf-\underline{R}egression (NoiSER)を提案する。
具体的には、トレーニング中にグレイワールドマッピングを学ぶためのキャリアとして自己回帰モデルを構築し、ランダムノイズを反復的に送る。
推論中は、学習したマッピングに直接低照度画像を供給し、通常照度画像を生成する。
大規模実験により,現在のタスク関連データに基づくLLIEモデルに対して,パラメータ数,トレーニング時間,推論速度の点で高い性能を示しながら,定量的かつ視覚的な結果を得た。
約1Kのパラメータだけで、NoiSERはトレーニングに約1分、推論に1.2ms、RTX 2080 Tiで600$\times$400の解像度を実現している。
さらに、NoiSERは、生まれつきの自動露光抑制機能があり、追加の操作をすることなく、自動的に明るさや暗さを調整できる。
関連論文リスト
- RSEND: Retinex-based Squeeze and Excitation Network with Dark Region Detection for Efficient Low Light Image Enhancement [1.7356500114422735]
より正確で簡潔で一段階のRetinex理論に基づくフレームワークRSENDを提案する。
RSENDはまず、低照度画像を照明マップと反射マップに分割し、照明マップの重要な詳細をキャプチャして光強調を行う。
我々の効率の良いRetinexモデルは、他のCNNベースモデルよりも大幅に優れており、異なるデータセットで0.44dBから4.2dBまでのPSNRの改善を実現している。
論文 参考訳(メタデータ) (2024-06-14T01:36:52Z) - Zero-Reference Low-Light Enhancement via Physical Quadruple Priors [58.77377454210244]
本稿では,標準光画像のみをトレーニング可能な,ゼロ参照低光強調フレームワークを提案する。
このフレームワークは、画像にさかのぼる照明不変性を復元し、自動的に低照度化を実現します。
論文 参考訳(メタデータ) (2024-03-19T17:36:28Z) - LVRNet: Lightweight Image Restoration for Aerial Images under Low
Visibility [6.785107765806355]
吹雪時の大気汚染・煙害・大気質指数の低下・低光・大気散乱・霧による視界の低下は、事故を防止するためにより重要となる。
高品質なイメージを生み出し、日々の使用に十分な効率でデプロイできるソリューションを構築することが不可欠です。
低視認性回復ネットワーク(LVRNet)と呼ばれる軽量ディープラーニングモデルを導入する。
また,PSNR 25.744 と 0.905 の SSIM を達成し,従来の画像復元手法よりも低レイテンシで性能が向上した。
論文 参考訳(メタデータ) (2023-01-13T08:43:11Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - When the Sun Goes Down: Repairing Photometric Losses for All-Day Depth
Estimation [47.617222712429026]
既存の測光損失を昼夜両方の画像に有効にするための3つの手法の組み合わせについて述べる。
まず、連続するフレーム間で起こる光の変化を補うために、ピクセルごとの神経強度変換を導入する。
第2に,推定エゴモーションと深度によって引き起こされる再投影対応を補正するために,画素ごとの残留フローマップを推定する。
論文 参考訳(メタデータ) (2022-06-28T09:29:55Z) - Enhancing Low-Light Images in Real World via Cross-Image Disentanglement [58.754943762945864]
そこで本研究では,現実の汚職とミスアライメントされたトレーニング画像からなる,新しい低照度画像強調データセットを提案する。
本モデルでは,新たに提案したデータセットと,他の一般的な低照度データセットの両方に対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-01-10T03:12:52Z) - Pure Noise to the Rescue of Insufficient Data: Improving Imbalanced
Classification by Training on Random Noise Images [12.91269560135337]
我々は、この制限を緩和する驚くほど単純で効果的な方法を提案する。
データ拡張のための付加雑音や逆雑音の一般的な使用とは異なり、純粋ランダムノイズ画像の直接トレーニングを提案する。
本稿では,同一ネットワーク内の自然画像に加えて,純雑音画像のトレーニングを可能にするDAR-BNを新たに提案する。
論文 参考訳(メタデータ) (2021-12-16T11:51:35Z) - Learning to Enhance Low-Light Image via Zero-Reference Deep Curve
Estimation [91.93949787122818]
深部ネットワークを用いた画像特異的曲線推定のタスクとして光強調を定式化するゼロ参照深部曲線推定(Zero-DCE)を提案する。
提案手法は,DCE-Netという軽量な深層ネットワークを訓練し,画像のダイナミックレンジ調整のための画素幅と高次曲線を推定する。
我々は、わずか10Kパラメータの小さなネットワークを利用するZero-DCE++と呼ばれる、加速された軽量バージョンのZero-DCEを紹介します。
論文 参考訳(メタデータ) (2021-03-01T09:21:51Z) - Zero-Reference Deep Curve Estimation for Low-Light Image Enhancement [156.18634427704583]
本稿では、深部ネットワークを用いた画像特異的曲線推定のタスクとして光強調を定式化するゼロ参照深部曲線推定法(Zero-DCE)を提案する。
提案手法は,DCE-Netという軽量な深層ネットワークをトレーニングし,画像のダイナミックレンジ調整のための画素幅と高次曲線を推定する。
論文 参考訳(メタデータ) (2020-01-19T13:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。