論文の概要: AdaAugment: A Tuning-Free and Adaptive Approach to Enhance Data Augmentation
- arxiv url: http://arxiv.org/abs/2405.11467v1
- Date: Sun, 19 May 2024 06:54:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 17:28:11.685333
- Title: AdaAugment: A Tuning-Free and Adaptive Approach to Enhance Data Augmentation
- Title(参考訳): AdaAugment: チューニング不要で適応的なデータ拡張アプローチ
- Authors: Suorong Yang, Peijia Li, Xin Xiong, Furao Shen, Jian Zhao,
- Abstract要約: AdaAugmentは、チューニング不要なAdaptive Augmentationメソッドである。
対象ネットワークからのリアルタイムフィードバックに基づいて、個別のトレーニングサンプルの増大度を動的に調整する。
優れた効率を保ちながら、他の最先端のDAメソッドの効率を一貫して上回ります。
- 参考スコア(独自算出の注目度): 12.697608744311122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation (DA) is widely employed to improve the generalization performance of deep models. However, most existing DA methods use augmentation operations with random magnitudes throughout training. While this fosters diversity, it can also inevitably introduce uncontrolled variability in augmented data, which may cause misalignment with the evolving training status of the target models. Both theoretical and empirical findings suggest that this misalignment increases the risks of underfitting and overfitting. To address these limitations, we propose AdaAugment, an innovative and tuning-free Adaptive Augmentation method that utilizes reinforcement learning to dynamically adjust augmentation magnitudes for individual training samples based on real-time feedback from the target network. Specifically, AdaAugment features a dual-model architecture consisting of a policy network and a target network, which are jointly optimized to effectively adapt augmentation magnitudes. The policy network optimizes the variability within the augmented data, while the target network utilizes the adaptively augmented samples for training. Extensive experiments across benchmark datasets and deep architectures demonstrate that AdaAugment consistently outperforms other state-of-the-art DA methods in effectiveness while maintaining remarkable efficiency.
- Abstract(参考訳): データ拡張(DA)は深層モデルの一般化性能を向上させるために広く用いられている。
しかし、既存のDA手法の多くは訓練を通して無作為な大きさの拡張演算を使用する。
これは多様性を育む一方で、必然的に強化されたデータに制御不能な変数を導入し、ターゲットモデルのトレーニング状態の悪化と不一致を引き起こす可能性がある。
理論的および実証的な結果は、このミスアライメントが不適合と過適合のリスクを高めることを示唆している。
これらの制約に対処するため,AdaAugmentを提案する。AdaAugmentは,強化学習を利用して,対象ネットワークからのリアルタイムフィードバックに基づいて,個別のトレーニングサンプルに対する適応度を動的に調整する,革新的でチューニング不要な適応拡張手法である。
特に、AdaAugmentはポリシーネットワークとターゲットネットワークで構成されるデュアルモデルアーキテクチャを備えており、拡張の規模を効果的に適応するために共同最適化されている。
ポリシーネットワークは、トレーニングに適応的に強化されたサンプルを利用する一方、拡張データ内の変動性を最適化する。
ベンチマークデータセットとディープアーキテクチャにわたる大規模な実験は、AdaAugmentが目覚ましい効率を維持しながら、他の最先端のDAメソッドを一貫して上回っていることを示している。
関連論文リスト
- Incorporating Supervised Domain Generalization into Data Augmentation [4.14360329494344]
本稿では,データ拡張の堅牢性と訓練効率を向上させるために,コントラッシブ・セマンティック・アライメント(CSA)ロス法を提案する。
CIFAR-100とCUBデータセットの実験により、提案手法は典型的なデータ拡張の堅牢性とトレーニング効率を向上させることが示された。
論文 参考訳(メタデータ) (2023-10-02T09:20:12Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Efficient and Effective Augmentation Strategy for Adversarial Training [48.735220353660324]
ディープニューラルネットワークの敵対的トレーニングは、標準トレーニングよりもはるかにデータ処理が難しいことが知られている。
本稿では,DAJAT(Diverse Augmentation-based Joint Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-10-27T10:59:55Z) - Improving GANs with A Dynamic Discriminator [106.54552336711997]
我々は、オンザフライで調整可能な判別器は、そのような時間変化に適応できると論じる。
総合的な実証研究により、提案したトレーニング戦略がDynamicDと呼ばれ、追加のコストやトレーニング目標を発生させることなく、合成性能を向上させることが確認された。
論文 参考訳(メタデータ) (2022-09-20T17:57:33Z) - Universal Adaptive Data Augmentation [30.83891617679216]
UADA(Universal Adaptive Data Augmentation)は、新しいデータ拡張戦略である。
トレーニング中のデータバッチ毎に,DA操作のタイプとサイズをランダムに決定します。
UADAはターゲットモデルの勾配情報に従ってDAのパラメータを適応的に更新する。
論文 参考訳(メタデータ) (2022-07-14T05:05:43Z) - Augmentation-induced Consistency Regularization for Classification [25.388324221293203]
我々はCR-Augと呼ばれるデータ拡張に基づく一貫性の規則化フレームワークを提案する。
CR-Augは、データ拡張によって生成された異なるサブモデルの出力分布を互いに整合するように強制する。
画像と音声の分類タスクにCR-Augを実装し、その有効性を検証するために広範な実験を行う。
論文 参考訳(メタデータ) (2022-05-25T03:15:36Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z) - Generalization in Reinforcement Learning by Soft Data Augmentation [11.752595047069505]
SODA(Soft Data Augmentation)は、政策学習からAugmentationを分離する手法である。
我々は、最先端のビジョンベースRL法によるトレーニングにおいて、サンプル効率、一般化、安定性を著しく向上するSODAを見出した。
論文 参考訳(メタデータ) (2020-11-26T17:00:34Z) - Self-paced Data Augmentation for Training Neural Networks [11.554821454921536]
本稿では,ニューラルネットワークをトレーニングする際のデータ拡張に適したサンプルを自動的に選択するセルフペース拡張を提案する。
提案手法は,非効率なデータ拡張による一般化性能の低下を緩和する。
実験結果から,SPAは,特にトレーニングサンプル数が少ない場合,一般化性能を向上できることが示された。
論文 参考訳(メタデータ) (2020-10-29T09:13:18Z) - CoDA: Contrast-enhanced and Diversity-promoting Data Augmentation for
Natural Language Understanding [67.61357003974153]
我々はCoDAと呼ばれる新しいデータ拡張フレームワークを提案する。
CoDAは、複数の変換を有機的に統合することで、多種多様な情報付加例を合成する。
すべてのデータサンプルのグローバルな関係を捉えるために、対照的な正則化の目的を導入する。
論文 参考訳(メタデータ) (2020-10-16T23:57:03Z) - Generative Data Augmentation for Commonsense Reasoning [75.26876609249197]
G-DAUGCは、低リソース環境でより正確で堅牢な学習を実現することを目的とした、新しい生成データ拡張手法である。
G-DAUGCは、バックトランスレーションに基づく既存のデータ拡張手法を一貫して上回っている。
分析の結果,G-DAUGCは多種多様な流線型学習例を産出し,その選択と学習アプローチが性能向上に重要であることが示された。
論文 参考訳(メタデータ) (2020-04-24T06:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。