論文の概要: Incorporating Supervised Domain Generalization into Data Augmentation
- arxiv url: http://arxiv.org/abs/2310.01029v1
- Date: Mon, 2 Oct 2023 09:20:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 22:43:00.511051
- Title: Incorporating Supervised Domain Generalization into Data Augmentation
- Title(参考訳): 教師付きドメインの一般化をデータ拡張に組み込む
- Authors: Shohei Enomoto, Monikka Roslianna Busto, Takeharu Eda
- Abstract要約: 本稿では,データ拡張の堅牢性と訓練効率を向上させるために,コントラッシブ・セマンティック・アライメント(CSA)ロス法を提案する。
CIFAR-100とCUBデータセットの実験により、提案手法は典型的なデータ拡張の堅牢性とトレーニング効率を向上させることが示された。
- 参考スコア(独自算出の注目度): 4.14360329494344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing utilization of deep learning in outdoor settings, its
robustness needs to be enhanced to preserve accuracy in the face of
distribution shifts, such as compression artifacts. Data augmentation is a
widely used technique to improve robustness, thanks to its ease of use and
numerous benefits. However, it requires more training epochs, making it
difficult to train large models with limited computational resources. To
address this problem, we treat data augmentation as supervised domain
generalization~(SDG) and benefit from the SDG method, contrastive semantic
alignment~(CSA) loss, to improve the robustness and training efficiency of data
augmentation. The proposed method only adds loss during model training and can
be used as a plug-in for existing data augmentation methods. Experiments on the
CIFAR-100 and CUB datasets show that the proposed method improves the
robustness and training efficiency of typical data augmentations.
- Abstract(参考訳): 屋外環境でのディープラーニングの利用が増加する中、その堅牢性は、圧縮アーティファクトのような分散シフトに直面して精度を保つために向上する必要がある。
データ拡張は、使いやすさと多くの利点のおかげで、堅牢性を改善するために広く使われているテクニックである。
しかし、多くの訓練期間が必要であり、限られた計算資源で大規模モデルを訓練することは困難である。
この問題に対処するために,データ拡張を教師付きドメイン一般化~(sdg)として扱い,sdg法,コントラストセマンティックアライメント~(csa)損失の恩恵を受け,データの強化の堅牢性とトレーニング効率を向上させる。
提案手法は,モデルトレーニング中にのみ損失を付加し,既存のデータ拡張手法のプラグインとして使用できる。
CIFAR-100およびCUBデータセットの実験により、提案手法は、典型的なデータ拡張の堅牢性とトレーニング効率を向上させることを示した。
関連論文リスト
- AdaAugment: A Tuning-Free and Adaptive Approach to Enhance Data Augmentation [12.697608744311122]
AdaAugmentは、チューニング不要なAdaptive Augmentationメソッドである。
対象ネットワークからのリアルタイムフィードバックに基づいて、個別のトレーニングサンプルの増大度を動的に調整する。
優れた効率を保ちながら、他の最先端のDAメソッドの効率を一貫して上回ります。
論文 参考訳(メタデータ) (2024-05-19T06:54:03Z) - DualAug: Exploiting Additional Heavy Augmentation with OOD Data
Rejection [77.6648187359111]
そこで本稿では,textbfDualAug という新しいデータ拡張手法を提案する。
教師付き画像分類ベンチマークの実験では、DualAugは様々な自動データ拡張法を改善している。
論文 参考訳(メタデータ) (2023-10-12T08:55:10Z) - Adversarial and Random Transformations for Robust Domain Adaptation and
Generalization [9.995765847080596]
ランダムデータ拡張による整合性トレーニングを単純に適用することで、ドメイン適応(DA)と一般化(DG)の最先端結果が得られることを示す。
逆変換とランダム変換を組み合わせた手法は、複数のDAおよびDGベンチマークデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2022-11-13T02:10:13Z) - Efficient and Effective Augmentation Strategy for Adversarial Training [48.735220353660324]
ディープニューラルネットワークの敵対的トレーニングは、標準トレーニングよりもはるかにデータ処理が難しいことが知られている。
本稿では,DAJAT(Diverse Augmentation-based Joint Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-10-27T10:59:55Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - Time Matters in Using Data Augmentation for Vision-based Deep
Reinforcement Learning [4.921588282642753]
増量を使用するタイミングは、トレーニングやテストで解決すべきタスクによって重要になります。
増員によって課される正規化がテストにのみ役立つ場合、サンプルと計算の複雑さの観点からトレーニング中に使用するよりも、トレーニング後の増員を推し進める方がよい。
論文 参考訳(メタデータ) (2021-02-17T05:22:34Z) - Generalization in Reinforcement Learning by Soft Data Augmentation [11.752595047069505]
SODA(Soft Data Augmentation)は、政策学習からAugmentationを分離する手法である。
我々は、最先端のビジョンベースRL法によるトレーニングにおいて、サンプル効率、一般化、安定性を著しく向上するSODAを見出した。
論文 参考訳(メタデータ) (2020-11-26T17:00:34Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Generative Data Augmentation for Commonsense Reasoning [75.26876609249197]
G-DAUGCは、低リソース環境でより正確で堅牢な学習を実現することを目的とした、新しい生成データ拡張手法である。
G-DAUGCは、バックトランスレーションに基づく既存のデータ拡張手法を一貫して上回っている。
分析の結果,G-DAUGCは多種多様な流線型学習例を産出し,その選択と学習アプローチが性能向上に重要であることが示された。
論文 参考訳(メタデータ) (2020-04-24T06:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。