論文の概要: DualAug: Exploiting Additional Heavy Augmentation with OOD Data
Rejection
- arxiv url: http://arxiv.org/abs/2310.08139v2
- Date: Mon, 16 Oct 2023 03:02:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 10:28:08.676621
- Title: DualAug: Exploiting Additional Heavy Augmentation with OOD Data
Rejection
- Title(参考訳): DualAug:OODデータ削除で追加の重大拡張を実施
- Authors: Zehao Wang, Yiwen Guo, Qizhang Li, Guanglei Yang, Wangmeng Zuo
- Abstract要約: そこで本稿では,textbfDualAug という新しいデータ拡張手法を提案する。
教師付き画像分類ベンチマークの実験では、DualAugは様々な自動データ拡張法を改善している。
- 参考スコア(独自算出の注目度): 77.6648187359111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation is a dominant method for reducing model overfitting and
improving generalization. Most existing data augmentation methods tend to find
a compromise in augmenting the data, \textit{i.e.}, increasing the amplitude of
augmentation carefully to avoid degrading some data too much and doing harm to
the model performance. We delve into the relationship between data augmentation
and model performance, revealing that the performance drop with heavy
augmentation comes from the presence of out-of-distribution (OOD) data.
Nonetheless, as the same data transformation has different effects for
different training samples, even for heavy augmentation, there remains part of
in-distribution data which is beneficial to model training. Based on the
observation, we propose a novel data augmentation method, named
\textbf{DualAug}, to keep the augmentation in distribution as much as possible
at a reasonable time and computational cost. We design a data mixing strategy
to fuse augmented data from both the basic- and the heavy-augmentation
branches. Extensive experiments on supervised image classification benchmarks
show that DualAug improve various automated data augmentation method. Moreover,
the experiments on semi-supervised learning and contrastive self-supervised
learning demonstrate that our DualAug can also improve related method. Code is
available at
\href{https://github.com/shuguang99/DualAug}{https://github.com/shuguang99/DualAug}.
- Abstract(参考訳): データ拡張は、モデルの過剰適合を減らし、一般化を改善する主要な方法である。
既存のデータ拡張手法の多くは、データ拡張の妥協点を見出す傾向にあり、拡張の振幅を慎重に増やすことで、データを過度に分解することを避け、モデル性能に悪影響を与える。
データ拡張とモデルパフォーマンスの関係を掘り下げ、重い拡張を伴うパフォーマンス低下は、アウト・オブ・ディストリビューション(OOD)データの存在から生じることを明らかにした。
それにもかかわらず、同じデータ変換が異なるトレーニングサンプルに対して異なる効果を持つため、重い拡張であっても、モデルトレーニングに有益な分散データの一部が残っている。
そこで本研究では,データ拡張手法であるtextbf{DualAug} を提案する。
基本分枝と重分枝の両方から拡張データを融合するデータ混合戦略を設計する。
教師付き画像分類ベンチマークの広範な実験により、dualaugは様々な自動データ拡張法を改善した。
さらに,半教師付き学習と対照的自己教師付き学習の実験により,dualaugは関連する方法も改善できることを示した。
コードは \href{https://github.com/shuguang99/DualAug}{https://github.com/shuguang99/DualAug} で公開されている。
関連論文リスト
- DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - Do Generated Data Always Help Contrastive Learning? [32.58214897368031]
コントラスト学習(CL)は、教師なし視覚表現学習において最も成功したパラダイムの1つである。
生成モデル、特に拡散モデルの増加に伴い、実際のデータ分布に近い現実的な画像を生成する能力はよく認識されている。
しかし、生成したデータ(DDPMのような優れた拡散モデルからでも)は、コントラスト学習に害を与えることもある。
論文 参考訳(メタデータ) (2024-03-19T05:17:47Z) - Fourier-basis Functions to Bridge Augmentation Gap: Rethinking Frequency
Augmentation in Image Classification [3.129187821625805]
AFA(Auxiliary Fourier-Basis Augmentation)は、周波数領域の増大を狙った技法であり、視覚的な拡張によって残された拡張ギャップを埋めるものである。
以上の結果から,AFAは,一般的な汚職に対するモデルの堅牢性,OODの一般化,モデルの性能の整合性,摂動の増大に対するモデルの性能の整合性,モデルの標準性能に対する無視的欠陥に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-03-04T11:30:02Z) - DiffAug: Enhance Unsupervised Contrastive Learning with Domain-Knowledge-Free Diffusion-based Data Augmentation [48.25619775814776]
本稿では,拡散モードに基づく正データ生成を用いた新しい教師なしコントラスト学習手法であるDiffAugを提案する。
DiffAugはセマンティックエンコーダと条件拡散モデルから構成されており、条件拡散モデルはセマンティックエンコーダに条件付された新しい正のサンプルを生成する。
実験的評価により、DiffAugは、DNA配列、視覚、および生体機能データセットのハンドデザインおよびSOTAモデルに基づく拡張手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-09-10T13:28:46Z) - Tied-Augment: Controlling Representation Similarity Improves Data
Augmentation [18.446051824487792]
我々は、広範囲のアプリケーションでデータ拡張を改善するため、Tied-Augmentと呼ばれるフレームワークを提案する。
Tied-Augmentは、データ拡張(RandAugment、mixupなど)、最適化(SAMなど)、半教師付き学習(FixMatchなど)から最先端の手法を改善することができる。
論文 参考訳(メタデータ) (2023-05-22T22:23:40Z) - Instance-Conditioned GAN Data Augmentation for Representation Learning [29.36473147430433]
DA_IC-GANは、学習可能なデータ拡張モジュールで、ほとんどの最先端のトレーニングレシピと組み合わせて、棚外で使用することができる。
DA_IC-GAN は最大容量モデルで 1%p から 2%p の精度を向上できることを示す。
また,DA_IC-GANを自己指導型トレーニングレシピと組み合わせることで,いくつかの設定で1%pの精度向上が達成できることを示す。
論文 参考訳(メタデータ) (2023-03-16T22:45:43Z) - How Much Data Are Augmentations Worth? An Investigation into Scaling
Laws, Invariance, and Implicit Regularization [76.58017437197859]
アウト・オブ・ディストリビューションテストのシナリオでは、多種多様なサンプルを生成するが、データ分散と矛盾しない増分は、追加のトレーニングデータよりもさらに価値がある。
トレーニング中に増強が付加性をもたらし、損失景観を効果的に平らにすることを示す。
論文 参考訳(メタデータ) (2022-10-12T17:42:01Z) - Learning Representational Invariances for Data-Efficient Action
Recognition [52.23716087656834]
我々は,データ拡張戦略により,Kinetics-100,UCF-101,HMDB-51データセットのパフォーマンスが期待できることを示す。
また,完全な教師付き設定でデータ拡張戦略を検証し,性能向上を実証した。
論文 参考訳(メタデータ) (2021-03-30T17:59:49Z) - WeMix: How to Better Utilize Data Augmentation [36.07712244423405]
我々はデータ拡張の長所と短所を明らかにする包括的分析を開発する。
データ拡張の主な制限は、データバイアスから生じます。
AugDrop" と "MixLoss" という2つの新しいアルゴリズムを開発し、データ拡張におけるデータのバイアスを補正する。
論文 参考訳(メタデータ) (2020-10-03T03:12:18Z) - Generative Data Augmentation for Commonsense Reasoning [75.26876609249197]
G-DAUGCは、低リソース環境でより正確で堅牢な学習を実現することを目的とした、新しい生成データ拡張手法である。
G-DAUGCは、バックトランスレーションに基づく既存のデータ拡張手法を一貫して上回っている。
分析の結果,G-DAUGCは多種多様な流線型学習例を産出し,その選択と学習アプローチが性能向上に重要であることが示された。
論文 参考訳(メタデータ) (2020-04-24T06:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。