論文の概要: Pure Noise to the Rescue of Insufficient Data: Improving Imbalanced
Classification by Training on Random Noise Images
- arxiv url: http://arxiv.org/abs/2112.08810v1
- Date: Thu, 16 Dec 2021 11:51:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 22:18:57.509549
- Title: Pure Noise to the Rescue of Insufficient Data: Improving Imbalanced
Classification by Training on Random Noise Images
- Title(参考訳): 不十分なデータの回収に対する純雑音:ランダムノイズ画像の訓練による不均衡分類の改善
- Authors: Shiran Zada, Itay Benou and Michal Irani
- Abstract要約: 我々は、この制限を緩和する驚くほど単純で効果的な方法を提案する。
データ拡張のための付加雑音や逆雑音の一般的な使用とは異なり、純粋ランダムノイズ画像の直接トレーニングを提案する。
本稿では,同一ネットワーク内の自然画像に加えて,純雑音画像のトレーニングを可能にするDAR-BNを新たに提案する。
- 参考スコア(独自算出の注目度): 12.91269560135337
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite remarkable progress on visual recognition tasks, deep neural-nets
still struggle to generalize well when training data is scarce or highly
imbalanced, rendering them extremely vulnerable to real-world examples. In this
paper, we present a surprisingly simple yet highly effective method to mitigate
this limitation: using pure noise images as additional training data. Unlike
the common use of additive noise or adversarial noise for data augmentation, we
propose an entirely different perspective by directly training on pure random
noise images. We present a new Distribution-Aware Routing Batch Normalization
layer (DAR-BN), which enables training on pure noise images in addition to
natural images within the same network. This encourages generalization and
suppresses overfitting. Our proposed method significantly improves imbalanced
classification performance, obtaining state-of-the-art results on a large
variety of long-tailed image classification datasets (CIFAR-10-LT,
CIFAR-100-LT, ImageNet-LT, Places-LT, and CelebA-5). Furthermore, our method is
extremely simple and easy to use as a general new augmentation tool (on top of
existing augmentations), and can be incorporated in any training scheme. It
does not require any specialized data generation or training procedures, thus
keeping training fast and efficient
- Abstract(参考訳): 視覚認識タスクの顕著な進歩にもかかわらず、トレーニングデータが不足したり、高度に不均衡な場合、ディープニューラルネットワークは依然として十分に一般化するのに苦労している。
本稿では,この制限を緩和するための驚くほど単純かつ高効率な手法を提案する。
データ拡張のための加算ノイズや逆ノイズの一般的な使用とは異なり、純粋なランダムノイズイメージを直接トレーニングすることで、全く異なる視点を提案する。
本稿では,同一ネットワーク内の自然画像に加えて,純ノイズ画像のトレーニングを可能にする分散認識ルーティングバッチ正規化レイヤ(dar-bn)を提案する。
これにより一般化が促進され、過剰フィッティングが抑制される。
提案手法は,多種多様な長期画像分類データセット(CIFAR-10-LT, CIFAR-100-LT, ImageNet-LT, Places-LT, CelebA-5)を用いて,非バランスな分類性能を著しく向上させる。
さらに,本手法は非常にシンプルで,汎用的な拡張ツールとして(既存の拡張に加えて)使用しやすく,任意のトレーニングスキームに組み込むことができる。
特別なデータ生成やトレーニング手順を必要としないため、トレーニングを迅速かつ効率的に行うことができる。
関連論文リスト
- Masked Image Training for Generalizable Deep Image Denoising [53.03126421917465]
本稿では,デノナイジングネットワークの一般化性能を高めるための新しい手法を提案する。
提案手法では,入力画像のランダムなピクセルをマスキングし,学習中に欠落した情報を再構成する。
提案手法は,他のディープラーニングモデルよりも優れた一般化能力を示し,実世界のシナリオに直接適用可能である。
論文 参考訳(メタデータ) (2023-03-23T09:33:44Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - NoiSER: Noise is All You Need for Enhancing Low-Light Images Without
Task-Related Data [103.04999391668753]
タスク関連のトレーニングデータなしで、低照度画像を拡張できることが示される。
技術的には、アンダーラインノイズと呼ばれる新しい、魔法的で、効果的で効率的な方法を提案する。
我々のNoiSERは、量的および視覚的な結果の観点から、現在のタスク関連データに基づくLLIEモデルと非常に競合しています。
論文 参考訳(メタデータ) (2022-11-09T06:18:18Z) - SAGE: Saliency-Guided Mixup with Optimal Rearrangements [22.112463794733188]
最適リアレンジメント(SAGE)を用いたサリエンシ誘導混合
SAGEは、ビジュアル・サリエンシをガイダンスとして、イメージペアを並べ替え、混合することで、新しいトレーニング例を作成する。
我々は, CIFAR-10 と CIFAR-100 について, SAGE がより効率的でありながら, より優れた性能と同等の性能を達成できることを実証した。
論文 参考訳(メタデータ) (2022-10-31T19:45:21Z) - Self-supervised Denoising via Low-rank Tensor Approximated Convolutional
Neural Network [2.2720758067273197]
十分なノイズ処理は、画像処理にとって重要な第一歩であることが多い。
ディープニューラルネットワーク(DNN)は画像のノイズ化に広く利用されている。
本研究では,タッカー低ランクテンソル近似に基づく自己教師付き画像復調フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-26T14:11:05Z) - Enhancing Low-Light Images in Real World via Cross-Image Disentanglement [58.754943762945864]
そこで本研究では,現実の汚職とミスアライメントされたトレーニング画像からなる,新しい低照度画像強調データセットを提案する。
本モデルでは,新たに提案したデータセットと,他の一般的な低照度データセットの両方に対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-01-10T03:12:52Z) - Fidelity Estimation Improves Noisy-Image Classification with Pretrained
Networks [12.814135905559992]
本稿では,事前学習した分類器に適用可能な手法を提案する。
提案手法では,特徴抽出器の内部表現に融合した忠実度マップの推定値を利用する。
オラクルの忠実度マップを用いた場合, ノイズや復元画像のトレーニングにおいて, 完全に再トレーニングされた手法よりも優れていた。
論文 参考訳(メタデータ) (2021-06-01T17:58:32Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - Multiclass non-Adversarial Image Synthesis, with Application to
Classification from Very Small Sample [6.243995448840211]
我々は、新しい非逆生成法 - LA(Clustered Optimization of LAtent space)を提案する。
本手法は,全データレギュレーションにおいて,教師なしの多様なマルチクラス画像を生成することができる。
ラベル付き画像の小さなサンプルのみが、追加のラベル付きデータにアクセスせずにトレーニングできる小データ体制では、同じ量のデータでトレーニングされた最先端のGANモデルを上回る結果が得られる。
論文 参考訳(メタデータ) (2020-11-25T18:47:27Z) - Data-driven Meta-set Based Fine-Grained Visual Classification [61.083706396575295]
本稿では, ノイズの多いWeb画像に対して, 微粒化認識のためのデータ駆動型メタセットベースアプローチを提案する。
具体的には、少量のクリーンなメタセットでガイドされ、メタラーニング方式で選択ネットを訓練し、分布内および分布外ノイズ画像の識別を行う。
論文 参考訳(メタデータ) (2020-08-06T03:04:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。