論文の概要: AugMax: Adversarial Composition of Random Augmentations for Robust
Training
- arxiv url: http://arxiv.org/abs/2110.13771v1
- Date: Tue, 26 Oct 2021 15:23:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 14:22:13.790212
- Title: AugMax: Adversarial Composition of Random Augmentations for Robust
Training
- Title(参考訳): AugMax:ロバストトレーニングのためのランダム拡張の逆合成
- Authors: Haotao Wang, Chaowei Xiao, Jean Kossaifi, Zhiding Yu, Anima
Anandkumar, Zhangyang Wang
- Abstract要約: 我々はAugMaxと呼ばれるデータ拡張フレームワークを提案し、多様性と硬さの2つの側面を統合する。
AugMaxはまず複数の拡張演算子をランダムにサンプリングし、選択した演算子の逆混合を学習する。
実験の結果、AugMax-DuBINはアウト・オブ・ディストリビューション・ロバスト性を大幅に改善し、前者芸術の3.03%、3.49%、1.82%、0.71%を上回った。
- 参考スコア(独自算出の注目度): 118.77956624445994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation is a simple yet effective way to improve the robustness of
deep neural networks (DNNs). Diversity and hardness are two complementary
dimensions of data augmentation to achieve robustness. For example, AugMix
explores random compositions of a diverse set of augmentations to enhance
broader coverage, while adversarial training generates adversarially hard
samples to spot the weakness. Motivated by this, we propose a data augmentation
framework, termed AugMax, to unify the two aspects of diversity and hardness.
AugMax first randomly samples multiple augmentation operators and then learns
an adversarial mixture of the selected operators. Being a stronger form of data
augmentation, AugMax leads to a significantly augmented input distribution
which makes model training more challenging. To solve this problem, we further
design a disentangled normalization module, termed DuBIN
(Dual-Batch-and-Instance Normalization), that disentangles the instance-wise
feature heterogeneity arising from AugMax. Experiments show that AugMax-DuBIN
leads to significantly improved out-of-distribution robustness, outperforming
prior arts by 3.03%, 3.49%, 1.82% and 0.71% on CIFAR10-C, CIFAR100-C, Tiny
ImageNet-C and ImageNet-C. Codes and pretrained models are available:
https://github.com/VITA-Group/AugMax.
- Abstract(参考訳): データ拡張は、ディープニューラルネットワーク(dnn)の堅牢性を改善するためのシンプルかつ効果的な方法である。
多様性と硬さは、堅牢性を達成するためのデータ拡張の相補的な2つの次元である。
例えば、AugMixは多種多様な拡張のランダムな構成を探索して範囲を広げ、一方、敵の訓練は弱さを見つけるために逆向きに硬いサンプルを生成する。
そこで本研究では,多様性と硬さの両面を統合するために,AugMaxと呼ばれるデータ拡張フレームワークを提案する。
AugMaxはまず複数の拡張演算子をランダムにサンプリングし、選択した演算子の逆混合を学習する。
augmaxはデータ拡張のより強固な形式であるため、モデルのトレーニングをより難しくする入力分布が大幅に増大する。
この問題を解決するために、AugMaxから生じるインスタンスワイド特徴の不均一性を解消するDuBIN(Dual-Batch-and-Instance Normalization)と呼ばれる非絡み付き正規化モジュールをさらに設計する。
AugMax-DuBINは、CIFAR10-C、CIFAR100-C、Tiny ImageNet-C、ImageNet-Cで、前作より3.03%、3.49%、1.82%、0.71%向上した。
コードと事前訓練されたモデルは、https://github.com/VITA-Group/AugMax.comで入手できる。
関連論文リスト
- 3D-VirtFusion: Synthetic 3D Data Augmentation through Generative Diffusion Models and Controllable Editing [52.68314936128752]
本研究では,事前学習された大規模基盤モデルのパワーを活用して,3次元ラベル付きトレーニングデータを自動的に生成する新しいパラダイムを提案する。
各ターゲットセマンティッククラスに対して、まず、拡散モデルとチャットGPT生成したテキストプロンプトを介して、様々な構造と外観の1つのオブジェクトの2D画像を生成する。
我々は、これらの拡張画像を3Dオブジェクトに変換し、ランダムな合成によって仮想シーンを構築する。
論文 参考訳(メタデータ) (2024-08-25T09:31:22Z) - Boosting Semi-Supervised 2D Human Pose Estimation by Revisiting Data
Augmentation and Consistency Training [25.02026393037821]
SSHPEは、高度なデータ拡張と簡潔な一貫性のトレーニング方法という、2つのコアから強化できることがわかった。
本稿では,多彩なハード拡張を伴うラベルなし画像の繰り返し拡大と,連続的にマルチパス予測を生成することを提案する。
提案手法は,SOTA手法と比較して,公開データセットに大幅な改善をもたらす。
論文 参考訳(メタデータ) (2024-02-18T12:27:59Z) - DualAug: Exploiting Additional Heavy Augmentation with OOD Data
Rejection [77.6648187359111]
そこで本稿では,textbfDualAug という新しいデータ拡張手法を提案する。
教師付き画像分類ベンチマークの実験では、DualAugは様々な自動データ拡張法を改善している。
論文 参考訳(メタデータ) (2023-10-12T08:55:10Z) - DiffAug: A Diffuse-and-Denoise Augmentation for Training Robust Classifiers [6.131022957085439]
DiffAugは、画像分類器を訓練するためのシンプルで効率的な拡散に基づく拡張手法である。
与えられた例にDiffAugを適用すると、1つの前方拡散ステップと1つの逆拡散ステップからなる。
論文 参考訳(メタデータ) (2023-06-15T15:19:25Z) - AugDiff: Diffusion based Feature Augmentation for Multiple Instance
Learning in Whole Slide Image [15.180437840817788]
弱教師付き学習のための強力な戦略であるマルチインスタンス学習(MIL)は、ギガピクセル全スライド画像(WSI)上で様々な予測タスクを実行することができる。
拡散モデル(DM)を初めてMILに導入し,AugDiffと呼ばれる機能拡張フレームワークを提案する。
我々は,AugDiffの性能を評価するために,3つの異なる癌データセット,2つの異なる特徴抽出器,および3つのMILアルゴリズムについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-03-11T10:36:27Z) - Soft Augmentation for Image Classification [68.71067594724663]
本稿では,変分変換による拡張の一般化とソフト拡張を提案する。
ソフトターゲットは、より攻撃的なデータ拡張を可能にすることを示す。
また,ソフト拡張が自己教師付き分類タスクに一般化されることも示している。
論文 参考訳(メタデータ) (2022-11-09T01:04:06Z) - SelectAugment: Hierarchical Deterministic Sample Selection for Data
Augmentation [72.58308581812149]
そこで我々は,SelectAugmentと呼ばれる効果的な手法を提案し,決定論的かつオンラインに拡張するサンプルを選択する。
具体的には、各バッチにおいて、まず増分比率を決定し、次にこの比で各トレーニングサンプルを増分するかを決定する。
これにより、サンプルを増量する際のランダム性による負の効果を効果的に軽減し、DAの有効性を向上させることができる。
論文 参考訳(メタデータ) (2021-12-06T08:38:38Z) - Virtual Data Augmentation: A Robust and General Framework for
Fine-tuning Pre-trained Models [51.46732511844122]
強力な事前訓練型言語モデル(PLM)は、小さな摂動や意図的な攻撃によって騙されることがある。
VDA(Virtual Data Augmentation)は,PLMを高度に微調整するための一般的なフレームワークである。
本手法は, PLMの堅牢性を向上し, 敵攻撃時の性能劣化を軽減する。
論文 参考訳(メタデータ) (2021-09-13T09:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。