論文の概要: When Chosen Wisely, More Data Is What You Need: A Universal
Sample-Efficient Strategy For Data Augmentation
- arxiv url: http://arxiv.org/abs/2203.09391v1
- Date: Thu, 17 Mar 2022 15:33:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 12:59:49.281016
- Title: When Chosen Wisely, More Data Is What You Need: A Universal
Sample-Efficient Strategy For Data Augmentation
- Title(参考訳): Chosenが気に入ったら、もっとデータが必要だ:データ拡張のための普遍的なサンプル効率の戦略
- Authors: Ehsan Kamalloo, Mehdi Rezagholizadeh, Ali Ghodsi
- Abstract要約: 両問題を克服するために,Glitterと呼ばれる汎用データ拡張(DA)技術を提案する。
Glitterは、敵DAに類似した最大損失を持つ最悪のサンプルのサブセットを適応的に選択する。
GLUEベンチマーク、SQuAD、HellaSwagの3つの広く使われているトレーニング設定実験により、Glitterはトレーニングが大幅に速く、競争性能が向上していることが明らかとなった。
- 参考スコア(独自算出の注目度): 19.569164094496955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data Augmentation (DA) is known to improve the generalizability of deep
neural networks. Most existing DA techniques naively add a certain number of
augmented samples without considering the quality and the added computational
cost of these samples. To tackle this problem, a common strategy, adopted by
several state-of-the-art DA methods, is to adaptively generate or re-weight
augmented samples with respect to the task objective during training. However,
these adaptive DA methods: (1) are computationally expensive and not
sample-efficient, and (2) are designed merely for a specific setting. In this
work, we present a universal DA technique, called Glitter, to overcome both
issues. Glitter can be plugged into any DA method, making training
sample-efficient without sacrificing performance. From a pre-generated pool of
augmented samples, Glitter adaptively selects a subset of worst-case samples
with maximal loss, analogous to adversarial DA. Without altering the training
strategy, the task objective can be optimized on the selected subset. Our
thorough experiments on the GLUE benchmark, SQuAD, and HellaSwag in three
widely used training setups including consistency training, self-distillation
and knowledge distillation reveal that Glitter is substantially faster to train
and achieves a competitive performance, compared to strong baselines.
- Abstract(参考訳): データ拡張(DA)は、ディープニューラルネットワークの一般化性を改善することが知られている。
既存のDA手法の多くは、これらのサンプルの品質と追加の計算コストを考慮せずに、ある程度の増分サンプルを追加する。
この問題に対処するために、いくつかの最先端DA手法で採用されている共通戦略は、訓練中の課題目標に対して適応的に強化サンプルを生成し、再重み付けすることである。
しかし、これらの適応da法は、(1)計算コストが高く、サンプル効率が良くない、(2)特定の設定のために設計されている。
本稿では,両問題を克服するために,Glitterと呼ばれる汎用DA手法を提案する。
Glitterは任意のDAメソッドにプラグインすることができ、パフォーマンスを犠牲にすることなくサンプル効率を向上することができる。
拡張されたサンプルのプールから、glitterは最大損失を持つ最悪のサンプルのサブセットを適応的に選択する。
トレーニング戦略を変更することなく、タスクの目的を選択したサブセットに最適化することができる。
GLUEベンチマーク、SQuAD、HellaSwagの徹底的な実験により、一貫性トレーニング、自己蒸留、知識蒸留を含む3つの広く使われているトレーニングセットにおいて、Glitterはトレーニングがかなり速く、強力なベースラインに比べて競争性能が向上していることが明らかとなった。
関連論文リスト
- Take the Bull by the Horns: Hard Sample-Reweighted Continual Training
Improves LLM Generalization [165.98557106089777]
大きな言語モデル(LLM)の能力を高めることが大きな課題だ。
本研究は,従来の事前学習データセットを用いたLCMの光連続訓練に関する実証的戦略から始まった。
次に、この戦略をインスタンス重み付け分散ロバスト最適化の原則化されたフレームワークに定式化します。
論文 参考訳(メタデータ) (2024-02-22T04:10:57Z) - Spanning Training Progress: Temporal Dual-Depth Scoring (TDDS) for Enhanced Dataset Pruning [50.809769498312434]
我々は、時間的デュアルディープス・スコーリング(TDDS)と呼ばれる新しいデータセット・プルーニング手法を提案する。
本手法は,10%のトレーニングデータで54.51%の精度を達成し,ランダム選択を7.83%以上,他の比較手法を12.69%以上上回る結果を得た。
論文 参考訳(メタデータ) (2023-11-22T03:45:30Z) - Sample Dropout: A Simple yet Effective Variance Reduction Technique in
Deep Policy Optimization [18.627233013208834]
重要度サンプリングを用いることで, 目的推定値に高いばらつきが生じる可能性が示唆された。
そこで本研究では, サンプルの偏差が高すぎる場合に, サンプルをドロップアウトすることで, 推定分散を束縛する, サンプルドロップアウトと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-02-05T04:44:35Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - Sampling Through the Lens of Sequential Decision Making [9.101505546901999]
我々はアダプティブ・サンプル・ウィズ・リワード(ASR)と呼ばれる報酬誘導型サンプリング戦略を提案する。
提案手法は,サンプリング過程を最適に調整し,最適性能を実現する。
情報検索とクラスタリングの実証的な結果は、異なるデータセット間でのASRのスーパーブパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-08-17T04:01:29Z) - ReSmooth: Detecting and Utilizing OOD Samples when Training with Data
Augmentation [57.38418881020046]
最近のDA技術は、常に強化トレーニングサンプルの多様性の必要性を満たす。
多様性の高い増分戦略は、通常、アウト・オブ・ディストリビューション(OOD)の増分サンプルを導入する。
ReSmoothは、まず、拡張サンプル中のOODサンプルを検知し、それらを活用するフレームワークである。
論文 参考訳(メタデータ) (2022-05-25T09:29:27Z) - SelectAugment: Hierarchical Deterministic Sample Selection for Data
Augmentation [72.58308581812149]
そこで我々は,SelectAugmentと呼ばれる効果的な手法を提案し,決定論的かつオンラインに拡張するサンプルを選択する。
具体的には、各バッチにおいて、まず増分比率を決定し、次にこの比で各トレーニングサンプルを増分するかを決定する。
これにより、サンプルを増量する際のランダム性による負の効果を効果的に軽減し、DAの有効性を向上させることができる。
論文 参考訳(メタデータ) (2021-12-06T08:38:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。