論文の概要: NoiSER: Noise is All You Need for Enhancing Low-Light Images Without
Task-Related Data
- arxiv url: http://arxiv.org/abs/2211.04700v1
- Date: Wed, 9 Nov 2022 06:18:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 16:55:36.637484
- Title: NoiSER: Noise is All You Need for Enhancing Low-Light Images Without
Task-Related Data
- Title(参考訳): NoiSER:ノイズはタスク関連データなしで低照度画像をエンハンスするのに必要
- Authors: Zhao Zhang, Suiyi Zhao, Xiaojie Jin, Mingliang Xu, Yi Yang, Shuicheng
Yan
- Abstract要約: タスク関連のトレーニングデータなしで、低照度画像を拡張できることが示される。
技術的には、アンダーラインノイズと呼ばれる新しい、魔法的で、効果的で効率的な方法を提案する。
我々のNoiSERは、量的および視覚的な結果の観点から、現在のタスク関連データに基づくLLIEモデルと非常に競合しています。
- 参考スコア(独自算出の注目度): 103.04999391668753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper is about an extraordinary phenomenon. Suppose we don't use any
low-light images as training data, can we enhance a low-light image by deep
learning? Obviously, current methods cannot do this, since deep neural networks
require to train their scads of parameters using copious amounts of training
data, especially task-related data. In this paper, we show that in the context
of fundamental deep learning, it is possible to enhance a low-light image
without any task-related training data. Technically, we propose a new, magical,
effective and efficient method, termed \underline{Noi}se
\underline{SE}lf-\underline{R}egression (NoiSER), which learns a gray-world
mapping from Gaussian distribution for low-light image enhancement (LLIE).
Specifically, a self-regression model is built as a carrier to learn a
gray-world mapping during training, which is performed by simply iteratively
feeding random noise. During inference, a low-light image is directly fed into
the learned mapping to yield a normal-light one. Extensive experiments show
that our NoiSER is highly competitive to current task-related data based LLIE
models in terms of quantitative and visual results, while outperforming them in
terms of the number of parameters, training time and inference speed. With only
about 1K parameters, NoiSER realizes about 1 minute for training and 1.2 ms for
inference with 600$\times$400 resolution on RTX 2080 Ti. Besides, NoiSER has an
inborn automated exposure suppression capability and can automatically adjust
too bright or too dark, without additional manipulations.
- Abstract(参考訳): この論文は異常な現象に関するものである。
低照度画像をトレーニングデータとして使用しない場合,ディープラーニングによる低照度画像の強化は可能か?
ディープニューラルネットワークは、膨大なトレーニングデータ、特にタスク関連のデータを使って、パラメータのスケードをトレーニングする必要があるため、現在の手法ではそうはならない。
本稿では,基本的な深層学習の文脈において,タスク関連のトレーニングデータなしで低照度画像を向上させることができることを示す。
本稿では,低照度画像強調(LLIE)のためのガウス分布からグレーワールドマッピングを学習する,新しい,魔法的,効果的で効率的な手法である,Shaunderline{Noi}se \underline{SE}lf-\underline{R}egression (NoiSER)を提案する。
具体的には、トレーニング中にグレイワールドマッピングを学ぶためのキャリアとして自己回帰モデルを構築し、ランダムノイズを反復的に送る。
推論中は、学習したマッピングに直接低照度画像を供給し、通常照度画像を生成する。
大規模実験により,現在のタスク関連データに基づくLLIEモデルに対して,パラメータ数,トレーニング時間,推論速度の点で高い性能を示しながら,定量的かつ視覚的な結果を得た。
約1Kのパラメータだけで、NoiSERはトレーニングに約1分、推論に1.2ms、RTX 2080 Tiで600$\times$400の解像度を実現している。
さらに、NoiSERは、生まれつきの自動露光抑制機能があり、追加の操作をすることなく、自動的に明るさや暗さを調整できる。
関連論文リスト
- Peer is Your Pillar: A Data-unbalanced Conditional GANs for Few-shot
Image Generation [24.698516678703236]
少ない撮影画像生成は、少数の訓練画像を用いて生成モデルを訓練することを目的としている。
我々はPier is your Pillar(PIP)と呼ばれる新しいパイプラインを提案し、ターゲットとする数ショットデータセットとピアデータセットを組み合わせて、データ不均衡な条件生成を生成する。
論文 参考訳(メタデータ) (2023-11-14T14:55:42Z) - How do Minimum-Norm Shallow Denoisers Look in Function Space? [36.14517933550934]
ニューラルネットワーク(NN)デノイザは多くの共通タスクにおいて必須のビルディングブロックである。
表現コストを最小に抑えながら、浅いReLU NNデノイザによって実現される関数を特徴付ける。
論文 参考訳(メタデータ) (2023-11-12T06:20:21Z) - A Semi-Paired Approach For Label-to-Image Translation [6.888253564585197]
ラベル・ツー・イメージ翻訳のための半教師付き(半ペア)フレームワークを初めて紹介する。
半ペア画像設定では、小さなペアデータとより大きなペア画像とラベルのセットにアクセスすることができる。
本稿では,この共有ネットワークのためのトレーニングアルゴリズムを提案し,非表現型クラスに着目した希少なクラスサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-23T16:13:43Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - Enhance the Visual Representation via Discrete Adversarial Training [24.3040211834614]
敵の訓練(AT)は、敵の例に対抗して最も効果的なアプローチの1つとして一般的に受け入れられている。
本稿では、画像データを個別のテキストのような入力、すなわち視覚的な単語に書き換えるための離散的逆行訓練(DAT)を提案する。
DATは視覚表現を強化するためのプラグイン・アンド・プレイ技術として、複数のタスクにおいて大幅な改善を実現している。
論文 参考訳(メタデータ) (2022-09-16T06:25:06Z) - Pushing the Limits of Simple Pipelines for Few-Shot Learning: External
Data and Fine-Tuning Make a Difference [74.80730361332711]
コンピュータビジョンにおいて、ほとんどショット学習は重要かつトピック的な問題である。
単純なトランスフォーマーベースのパイプラインは、標準ベンチマークで驚くほど優れたパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2022-04-15T02:55:58Z) - Enhancing Low-Light Images in Real World via Cross-Image Disentanglement [58.754943762945864]
そこで本研究では,現実の汚職とミスアライメントされたトレーニング画像からなる,新しい低照度画像強調データセットを提案する。
本モデルでは,新たに提案したデータセットと,他の一般的な低照度データセットの両方に対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-01-10T03:12:52Z) - Pure Noise to the Rescue of Insufficient Data: Improving Imbalanced
Classification by Training on Random Noise Images [12.91269560135337]
我々は、この制限を緩和する驚くほど単純で効果的な方法を提案する。
データ拡張のための付加雑音や逆雑音の一般的な使用とは異なり、純粋ランダムノイズ画像の直接トレーニングを提案する。
本稿では,同一ネットワーク内の自然画像に加えて,純雑音画像のトレーニングを可能にするDAR-BNを新たに提案する。
論文 参考訳(メタデータ) (2021-12-16T11:51:35Z) - DeFlow: Learning Complex Image Degradations from Unpaired Data with
Conditional Flows [145.83812019515818]
本論文では,不対データから画像劣化を学習するDeFlowを提案する。
共有フローデコーダネットワークの潜在空間における劣化過程をモデル化する。
共同画像復元と超解像におけるDeFlowの定式化を検証した。
論文 参考訳(メタデータ) (2021-01-14T18:58:01Z) - Syn2Real Transfer Learning for Image Deraining using Gaussian Processes [92.15895515035795]
CNNに基づく画像デライニング手法は,再現誤差や視覚的品質の点で優れた性能を発揮している。
実世界の完全ラベル付き画像デライニングデータセットを取得する上での課題により、既存の手法は合成されたデータのみに基づいて訓練される。
本稿では,ガウス過程に基づく半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T00:33:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。