論文の概要: Negative Data Augmentation
- arxiv url: http://arxiv.org/abs/2102.05113v1
- Date: Tue, 9 Feb 2021 20:28:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 03:35:53.195437
- Title: Negative Data Augmentation
- Title(参考訳): 負のデータ拡張
- Authors: Abhishek Sinha, Kumar Ayush, Jiaming Song, Burak Uzkent, Hongxia Jin,
Stefano Ermon
- Abstract要約: 負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
- 参考スコア(独自算出の注目度): 127.28042046152954
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data augmentation is often used to enlarge datasets with synthetic samples
generated in accordance with the underlying data distribution. To enable a
wider range of augmentations, we explore negative data augmentation strategies
(NDA)that intentionally create out-of-distribution samples. We show that such
negative out-of-distribution samples provide information on the support of the
data distribution, and can be leveraged for generative modeling and
representation learning. We introduce a new GAN training objective where we use
NDA as an additional source of synthetic data for the discriminator. We prove
that under suitable conditions, optimizing the resulting objective still
recovers the true data distribution but can directly bias the generator towards
avoiding samples that lack the desired structure. Empirically, models trained
with our method achieve improved conditional/unconditional image generation
along with improved anomaly detection capabilities. Further, we incorporate the
same negative data augmentation strategy in a contrastive learning framework
for self-supervised representation learning on images and videos, achieving
improved performance on downstream image classification, object detection, and
action recognition tasks. These results suggest that prior knowledge on what
does not constitute valid data is an effective form of weak supervision across
a range of unsupervised learning tasks.
- Abstract(参考訳): データ拡張は、基礎となるデータ分布に応じて生成された合成サンプルでデータセットを拡大するためにしばしば使用される。
より広い範囲の増補を可能にするために、故意に分散サンプルを作成する負のデータ増補戦略(nda)を探求する。
このような負の分散サンプルは、データ分散のサポートに関する情報を提供し、生成的モデリングや表現学習に活用できることを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
適切な条件下では、結果の目標を最適化することは、真のデータ分布を回復するが、必要な構造を欠いたサンプルを避けるために、ジェネレータを直接バイアスできる。
本手法で訓練したモデルは, 異常検出能力の向上とともに, 条件付き/無条件画像生成が向上した。
さらに,画像と映像の自己教師あり表現学習のためのコントラスト学習フレームワークに,同じ否定的データ拡張戦略を取り入れ,下流画像分類,物体検出,行動認識タスクの性能向上を実現している。
これらの結果は、有効なデータを構成するものに関する以前の知識は、監視されていない学習タスクの範囲にわたって弱い監督の効果的な形態であることを示唆しています。
関連論文リスト
- Few-shot Online Anomaly Detection and Segmentation [29.693357653538474]
本稿では,難易度の高いオンライン異常検出・セグメンテーション(FOADS)の課題に対処することに焦点を当てる。
FOADSフレームワークでは、モデルを数ショットの通常のデータセットでトレーニングし、その後、正常サンプルと異常サンプルの両方を含む未ラベルのストリーミングデータを活用することで、その能力の検査と改善を行う。
限られたトレーニングサンプルを用いた性能向上のために,ImageNetで事前学習したCNNから抽出したマルチスケール特徴埋め込みを用いて,ロバストな表現を得る。
論文 参考訳(メタデータ) (2024-03-27T02:24:00Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - Feedback-guided Data Synthesis for Imbalanced Classification [10.836265321046561]
有用な合成サンプルを用いて静的データセットを拡張するためのフレームワークを提案する。
サンプルはタスクの実際のデータのサポートに近づき、十分に多様であることに気付きました。
ImageNet-LTでは、表現不足のクラスでは4%以上改善され、最先端の結果が得られます。
論文 参考訳(メタデータ) (2023-09-29T21:47:57Z) - Reward-Directed Conditional Diffusion: Provable Distribution Estimation
and Reward Improvement [42.45888600367566]
Directed Generationは、報酬関数によって測定された望ましい特性を持つサンプルを生成することを目的としている。
我々は、データセットがラベルのないデータと、ノイズの多い報酬ラベルを持つ小さなデータセットから構成される一般的な学習シナリオを考察する。
論文 参考訳(メタデータ) (2023-07-13T20:20:40Z) - Leaving Reality to Imagination: Robust Classification via Generated
Datasets [24.411444438920988]
近年のロバスト性に関する研究では、テストセットと同様のデータセットでトレーニングされたニューラルイメージ分類器間での顕著なパフォーマンスギャップが明らかになった。
生成したデータセットは、画像分類器の自然な堅牢性にどのように影響するのか?
生成したデータで強化された実データに基づいて訓練された画像ネット分類器は、標準トレーニングよりも精度が高く、効果的に頑健であることがわかった。
論文 参考訳(メタデータ) (2023-02-05T22:49:33Z) - Temporal Output Discrepancy for Loss Estimation-based Active Learning [65.93767110342502]
ラベルのないサンプルが高損失を伴っていると信じられている場合に,データアノテーションのオラクルに問い合わせる,新しいディープラーニングアプローチを提案する。
本手法は,画像分類やセマンティックセグメンテーションタスクにおける最先端の能動学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-12-20T19:29:37Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - Incorporating Semi-Supervised and Positive-Unlabeled Learning for
Boosting Full Reference Image Quality Assessment [73.61888777504377]
フル参照(FR)画像品質評価(IQA)は、その知覚的差異をプリズム品質基準で測定することにより、歪み画像の視覚的品質を評価する。
ラベルなしデータは、画像劣化または復元プロセスから容易に収集することができ、ラベルなしのトレーニングデータを利用してFR-IQA性能を高めることを奨励する。
本稿では, 半教師付き, 正の未ラベル学習(PU)を用いて, ラベルなしデータを活用し, オフレーヤの悪影響を軽減することを提案する。
論文 参考訳(メタデータ) (2022-04-19T09:10:06Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。