論文の概要: Noise Self-Regression: A New Learning Paradigm to Enhance Low-Light Images Without Task-Related Data
- arxiv url: http://arxiv.org/abs/2211.04700v3
- Date: Fri, 06 Dec 2024 09:46:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:53:47.410598
- Title: Noise Self-Regression: A New Learning Paradigm to Enhance Low-Light Images Without Task-Related Data
- Title(参考訳): ノイズ自己回帰:タスク関連データのない低照度画像を実現するための新しい学習パラダイム
- Authors: Zhao Zhang, Suiyi Zhao, Xiaojie Jin, Mingliang Xu, Yi Yang, Shuicheng Yan, Meng Wang,
- Abstract要約: タスク関連のデータにアクセスせずにノイズ自己回帰(NoiSER)を提案する。
NoiSERは品質向上に非常に競争力があるが、モデルのサイズははるかに小さく、トレーニングや推論のコストもはるかに低い。
- 参考スコア(独自算出の注目度): 86.68013790656762
- License:
- Abstract: Deep learning-based low-light image enhancement (LLIE) is a task of leveraging deep neural networks to enhance the image illumination while keeping the image content unchanged. From the perspective of training data, existing methods complete the LLIE task driven by one of the following three data types: paired data, unpaired data and zero-reference data. Each type of these data-driven methods has its own advantages, e.g., zero-reference data-based methods have very low requirements on training data and can meet the human needs in many scenarios. In this paper, we leverage pure Gaussian noise to complete the LLIE task, which further reduces the requirements for training data in LLIE tasks and can be used as another alternative in practical use. Specifically, we propose Noise SElf-Regression (NoiSER) without access to any task-related data, simply learns a convolutional neural network equipped with an instance-normalization layer by taking a random noise image, $\mathcal{N}(0,\sigma^2)$ for each pixel, as both input and output for each training pair, and then the low-light image is fed to the trained network for predicting the normal-light image. Technically, an intuitive explanation for its effectiveness is as follows: 1) the self-regression reconstructs the contrast between adjacent pixels of the input image, 2) the instance-normalization layer may naturally remediate the overall magnitude/lighting of the input image, and 3) the $\mathcal{N}(0,\sigma^2)$ assumption for each pixel enforces the output image to follow the well-known gray-world hypothesis when the image size is big enough. Compared to current state-of-the-art LLIE methods with access to different task-related data, NoiSER is highly competitive in enhancement quality, yet with a much smaller model size, and much lower training and inference cost. Besides, NoiSER also excels in mitigating overexposure and handling joint tasks.
- Abstract(参考訳): 深層学習に基づく低照度画像強調(LLIE)は、深層ニューラルネットワークを活用して画像内容の不変性を保ちながら画像の照度を高めるタスクである。
トレーニングデータの観点からは、既存のメソッドは、ペアデータ、ペアなしデータ、ゼロ参照データという3つのデータタイプのうちの1つによって、LLIEタスクを完了します。
例えば、ゼロ参照データベースのメソッドは、トレーニングデータに対する要求が極めて低く、多くのシナリオにおいて人間の要求を満たすことができる。
本稿では、純粋ガウス雑音を利用してLLIEタスクを完了し、LLIEタスクにおけるトレーニングデータの要求をさらに低減し、実用的な代替手段として使用することができる。
具体的には、タスク関連データにアクセスせずにノイズ自己回帰(NoiSER)を提案し、ランダムノイズイメージを各画素に対して$\mathcal{N}(0,\sigma^2)$とすることで、インスタンス正規化層を備えた畳み込みニューラルネットワークを学習し、各トレーニングペアに対して入力と出力をそれぞれ行い、次に、低照度画像をトレーニングネットワークに供給し、正常光画像を予測する。
技術的には、その効果の直感的な説明は以下の通りである。
1)自己回帰は、入力画像の隣接画素間のコントラストを再構成する。
2 インスタンス正規化層は、入力画像の全体的な大きさ/明度を自然に調整することができる。
3) 各画素に対する$\mathcal{N}(0,\sigma^2)$の仮定は、画像サイズが十分大きければ、よく知られた灰色の世界仮説に従うように出力画像を強制する。
タスク関連の異なるデータにアクセス可能な現在のLLIE手法と比較して、NoiSERは品質向上に非常に競争力があるが、モデルサイズははるかに小さく、トレーニングや推論コストもはるかに低い。
さらにNoiSERは、過剰露光の軽減と共同作業の処理にも長けている。
関連論文リスト
- Peer is Your Pillar: A Data-unbalanced Conditional GANs for Few-shot
Image Generation [24.698516678703236]
少ない撮影画像生成は、少数の訓練画像を用いて生成モデルを訓練することを目的としている。
我々はPier is your Pillar(PIP)と呼ばれる新しいパイプラインを提案し、ターゲットとする数ショットデータセットとピアデータセットを組み合わせて、データ不均衡な条件生成を生成する。
論文 参考訳(メタデータ) (2023-11-14T14:55:42Z) - How do Minimum-Norm Shallow Denoisers Look in Function Space? [36.14517933550934]
ニューラルネットワーク(NN)デノイザは多くの共通タスクにおいて必須のビルディングブロックである。
表現コストを最小に抑えながら、浅いReLU NNデノイザによって実現される関数を特徴付ける。
論文 参考訳(メタデータ) (2023-11-12T06:20:21Z) - A Semi-Paired Approach For Label-to-Image Translation [6.888253564585197]
ラベル・ツー・イメージ翻訳のための半教師付き(半ペア)フレームワークを初めて紹介する。
半ペア画像設定では、小さなペアデータとより大きなペア画像とラベルのセットにアクセスすることができる。
本稿では,この共有ネットワークのためのトレーニングアルゴリズムを提案し,非表現型クラスに着目した希少なクラスサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-23T16:13:43Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - Enhance the Visual Representation via Discrete Adversarial Training [24.3040211834614]
敵の訓練(AT)は、敵の例に対抗して最も効果的なアプローチの1つとして一般的に受け入れられている。
本稿では、画像データを個別のテキストのような入力、すなわち視覚的な単語に書き換えるための離散的逆行訓練(DAT)を提案する。
DATは視覚表現を強化するためのプラグイン・アンド・プレイ技術として、複数のタスクにおいて大幅な改善を実現している。
論文 参考訳(メタデータ) (2022-09-16T06:25:06Z) - Pushing the Limits of Simple Pipelines for Few-Shot Learning: External
Data and Fine-Tuning Make a Difference [74.80730361332711]
コンピュータビジョンにおいて、ほとんどショット学習は重要かつトピック的な問題である。
単純なトランスフォーマーベースのパイプラインは、標準ベンチマークで驚くほど優れたパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2022-04-15T02:55:58Z) - Enhancing Low-Light Images in Real World via Cross-Image Disentanglement [58.754943762945864]
そこで本研究では,現実の汚職とミスアライメントされたトレーニング画像からなる,新しい低照度画像強調データセットを提案する。
本モデルでは,新たに提案したデータセットと,他の一般的な低照度データセットの両方に対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-01-10T03:12:52Z) - Pure Noise to the Rescue of Insufficient Data: Improving Imbalanced
Classification by Training on Random Noise Images [12.91269560135337]
我々は、この制限を緩和する驚くほど単純で効果的な方法を提案する。
データ拡張のための付加雑音や逆雑音の一般的な使用とは異なり、純粋ランダムノイズ画像の直接トレーニングを提案する。
本稿では,同一ネットワーク内の自然画像に加えて,純雑音画像のトレーニングを可能にするDAR-BNを新たに提案する。
論文 参考訳(メタデータ) (2021-12-16T11:51:35Z) - DeFlow: Learning Complex Image Degradations from Unpaired Data with
Conditional Flows [145.83812019515818]
本論文では,不対データから画像劣化を学習するDeFlowを提案する。
共有フローデコーダネットワークの潜在空間における劣化過程をモデル化する。
共同画像復元と超解像におけるDeFlowの定式化を検証した。
論文 参考訳(メタデータ) (2021-01-14T18:58:01Z) - Syn2Real Transfer Learning for Image Deraining using Gaussian Processes [92.15895515035795]
CNNに基づく画像デライニング手法は,再現誤差や視覚的品質の点で優れた性能を発揮している。
実世界の完全ラベル付き画像デライニングデータセットを取得する上での課題により、既存の手法は合成されたデータのみに基づいて訓練される。
本稿では,ガウス過程に基づく半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T00:33:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。