論文の概要: Dealing with the Evil Twins: Improving Random Augmentation by Addressing Catastrophic Forgetting of Diverse Augmentations
- arxiv url: http://arxiv.org/abs/2506.08240v1
- Date: Mon, 09 Jun 2025 21:18:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:40.766905
- Title: Dealing with the Evil Twins: Improving Random Augmentation by Addressing Catastrophic Forgetting of Diverse Augmentations
- Title(参考訳): 悪双生児への対処 : 異方性増悪の破滅的予測に対処してランダム増悪を改善する
- Authors: Dongkyu Cho, Rumi Chunara,
- Abstract要約: ランダムな拡張の性質は、学習した特徴を歪ませるコライディング拡張のセットを生み出すことができることを示す。
そこで本研究では,ランダム拡張の一般化効果を改善するための簡単な解を提案する。
- 参考スコア(独自算出の注目度): 3.332860174059798
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation is a promising tool for enhancing out-of-distribution generalization, where the key is to produce diverse, challenging variations of the source domain via costly targeted augmentations that maximize its generalization effect. Conversely, random augmentation is inexpensive but is deemed suboptimal due to its limited effect. In this paper, we revisit random augmentation and explore methods to address its shortcomings. We show that the stochastic nature of random augmentation can produce a set of colliding augmentations that distorts the learned features, similar to catastrophic forgetting. We propose a simple solution that improves the generalization effect of random augmentation by addressing forgetting, which displays strong generalization performance across various single source domain generalization (sDG) benchmarks.
- Abstract(参考訳): データ拡張は、アウト・オブ・ディストリビューションの一般化を強化するための有望なツールであり、その鍵は、その一般化効果を最大化するコストターゲットの拡張を通じて、ソースドメインの多様で挑戦的なバリエーションを生成することである。
逆に、ランダムな拡張は安価であるが、その限られた効果のため、最適以下と見なされる。
本稿では、ランダムな拡張を再考し、その欠点に対処するための方法を探る。
ランダムな拡張の確率的性質は、破滅的な忘れ込みと同様、学習した特徴を歪ませるコライディング拡張のセットを生み出すことができることを示す。
本稿では,様々な単一ソース領域の一般化(sDG)ベンチマークにおいて,強い一般化性能を示すことを念頭に置いて,ランダム拡張の一般化効果を向上する簡単な解を提案する。
関連論文リスト
- Adaptive Spatial Augmentation for Semi-supervised Semantic Segmentation [51.645152962504056]
半教師付きセマンティックセグメンテーションでは、データ拡張は弱い一貫性の規則化フレームワークにおいて重要な役割を果たす。
空間増強はSSSSのモデルトレーニングに寄与するが,弱い面と強い面の間には一貫性のないマスクが生じる。
本稿では,各インスタンスのエントロピーに基づいて動的に拡張を調整する適応的拡張戦略を提案する。
論文 参考訳(メタデータ) (2025-05-29T13:35:48Z) - Towards Understanding Why Data Augmentation Improves Generalization [59.26137687216215]
本稿では,データ拡張が2つの重要な効果を通じて一般化を促進する方法を明らかにする統一理論フレームワークを提案する。
部分的意味的特徴除去は、モデルの個々の特徴への依存を減らし、多様な特徴学習を促進し、より一般化する。
オリジナルのセマンティック機能をスケールダウンしてノイズを導入することで、機能混在はトレーニングの複雑さを高め、より堅牢な機能を開発するためにモデルを駆動する。
論文 参考訳(メタデータ) (2025-02-13T03:41:50Z) - Boosting Model Resilience via Implicit Adversarial Data Augmentation [20.768174896574916]
本稿では, 対向性および対向性摂動分布を組み込むことにより, 試料の深い特性を増大させることを提案する。
そして、この拡張過程が代理損失関数の最適化に近似することを理論的に明らかにする。
我々は4つの共通のバイアス付き学習シナリオにまたがって広範な実験を行う。
論文 参考訳(メタデータ) (2024-04-25T03:22:48Z) - LatentAugment: Dynamically Optimized Latent Probabilities of Data
Augmentation [0.0]
本研究では、最適な拡張の潜在確率を推定するtextitLatentAugment$を提案する。
実験結果から,提案手法はCIFAR-10, CIFAR-100, SVHN, ImageNetデータセットにおいて, 従来手法よりも精度が高いことがわかった。
論文 参考訳(メタデータ) (2023-05-04T09:26:27Z) - Soft Augmentation for Image Classification [68.71067594724663]
本稿では,変分変換による拡張の一般化とソフト拡張を提案する。
ソフトターゲットは、より攻撃的なデータ拡張を可能にすることを示す。
また,ソフト拡張が自己教師付き分類タスクに一般化されることも示している。
論文 参考訳(メタデータ) (2022-11-09T01:04:06Z) - Regularising for invariance to data augmentation improves supervised
learning [82.85692486314949]
入力毎に複数の拡張を使用すれば、一般化が向上することを示す。
本稿では,個々のモデル予測のレベルにおいて,この不変性を助長する明示的な正規化手法を提案する。
論文 参考訳(メタデータ) (2022-03-07T11:25:45Z) - AugMax: Adversarial Composition of Random Augmentations for Robust
Training [118.77956624445994]
我々はAugMaxと呼ばれるデータ拡張フレームワークを提案し、多様性と硬さの2つの側面を統合する。
AugMaxはまず複数の拡張演算子をランダムにサンプリングし、選択した演算子の逆混合を学習する。
実験の結果、AugMax-DuBINはアウト・オブ・ディストリビューション・ロバスト性を大幅に改善し、前者芸術の3.03%、3.49%、1.82%、0.71%を上回った。
論文 参考訳(メタデータ) (2021-10-26T15:23:56Z) - Untapped Potential of Data Augmentation: A Domain Generalization
Viewpoint [14.360826930970765]
本研究では,拡張に基づく手法の領域一般化の観点から考察する。
最先端の強化手法による探索は、学習された表現が訓練中に使用する歪みに対してさえ頑健でないことを示す。
論文 参考訳(メタデータ) (2020-07-09T09:40:54Z) - Affinity and Diversity: Quantifying Mechanisms of Data Augmentation [25.384464387734802]
親和性と多様性(Affinity and Diversity)。
拡張性能は,いずれか単独で予測されるのではなく,共同最適化によって予測される。
論文 参考訳(メタデータ) (2020-02-20T19:02:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。