論文の概要: DiffAug: A Diffuse-and-Denoise Augmentation for Training Robust Classifiers
- arxiv url: http://arxiv.org/abs/2306.09192v2
- Date: Wed, 29 May 2024 00:16:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 02:31:12.067877
- Title: DiffAug: A Diffuse-and-Denoise Augmentation for Training Robust Classifiers
- Title(参考訳): DiffAug:ロバスト分類器の訓練のためのディフューズ・アンド・ディネーズ強化
- Authors: Chandramouli Sastry, Sri Harsha Dumpala, Sageev Oore,
- Abstract要約: DiffAugは、画像分類器を訓練するためのシンプルで効率的な拡散に基づく拡張手法である。
与えられた例にDiffAugを適用すると、1つの前方拡散ステップと1つの逆拡散ステップからなる。
- 参考スコア(独自算出の注目度): 6.131022957085439
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce DiffAug, a simple and efficient diffusion-based augmentation technique to train image classifiers for the crucial yet challenging goal of improved classifier robustness. Applying DiffAug to a given example consists of one forward-diffusion step followed by one reverse-diffusion step. Using both ResNet-50 and Vision Transformer architectures, we comprehensively evaluate classifiers trained with DiffAug and demonstrate the surprising effectiveness of single-step reverse diffusion in improving robustness to covariate shifts, certified adversarial accuracy and out of distribution detection. When we combine DiffAug with other augmentations such as AugMix and DeepAugment we demonstrate further improved robustness. Finally, building on this approach, we also improve classifier-guided diffusion wherein we observe improvements in: (i) classifier-generalization, (ii) gradient quality (i.e., improved perceptual alignment) and (iii) image generation performance. We thus introduce a computationally efficient technique for training with improved robustness that does not require any additional data, and effectively complements existing augmentation approaches.
- Abstract(参考訳): DiffAugは、画像分類器を訓練するための、単純で効率的な拡散に基づく拡張手法である。
与えられた例にDiffAugを適用すると、1つの前方拡散ステップと1つの逆拡散ステップからなる。
ResNet-50アーキテクチャとVision Transformerアーキテクチャの両方を用いて、DiffAugで訓練された分類器を網羅的に評価し、コバリアレートシフトに対するロバスト性の向上、検証された逆精度、および分布検出における単一ステップ逆拡散の驚くべき効果を実証する。
DiffAugをAugMixやDeepAugmentのような他の拡張と組み合わせると、さらなる堅牢性の向上が示されます。
最後に、このアプローチに基づいて分類器誘導拡散を改善する。
(i)分類器の一般化
(二)勾配品質(知覚アライメントの改善)、及び
(iii)画像生成性能。
そこで本稿では,新たなデータを必要としない頑健さを向上し,既存の拡張アプローチを効果的に補完する,計算効率のよいトレーニング手法を提案する。
関連論文リスト
- Feature Augmentation for Self-supervised Contrastive Learning: A Closer Look [28.350278251132078]
本稿では,機能拡張(Feature Augmentation)として知られる機能空間でデータ拡張を行う統一フレームワークを提案する。
この戦略はドメインに依存しないため、元のものと同様の機能が追加され、データの多様性が向上する。
論文 参考訳(メタデータ) (2024-10-16T09:25:11Z) - Improving the Transferability of Adversarial Examples by Feature Augmentation [6.600860987969305]
本稿では,計算コストの増大を伴わずに,対向移動性を向上する簡易かつ効果的な機能拡張攻撃法を提案する。
具体的には、攻撃勾配の多様性を増大させるために、モデルの中間特徴にランダムノイズを注入する。
提案手法は,既存の勾配攻撃と組み合わせることで,さらなる性能向上を図ることができる。
論文 参考訳(メタデータ) (2024-07-09T09:41:40Z) - DASA: Difficulty-Aware Semantic Augmentation for Speaker Verification [55.306583814017046]
本稿では,話者認証のための難易度認識型セマンティック拡張(DASA)手法を提案する。
DASAは、話者埋め込み空間における多様なトレーニングサンプルを、無視できる余分な計算コストで生成する。
最も良い結果は、CN-Celeb評価セット上でのEER測定値の14.6%の相対的な減少を達成する。
論文 参考訳(メタデータ) (2023-10-18T17:07:05Z) - DualAug: Exploiting Additional Heavy Augmentation with OOD Data
Rejection [77.6648187359111]
そこで本稿では,textbfDualAug という新しいデータ拡張手法を提案する。
教師付き画像分類ベンチマークの実験では、DualAugは様々な自動データ拡張法を改善している。
論文 参考訳(メタデータ) (2023-10-12T08:55:10Z) - Dynamic Test-Time Augmentation via Differentiable Functions [3.686808512438363]
DynTTAは、認識モデルを再訓練することなく、認識に優しい画像を生成する画像強調手法である。
DynTTAは、微分可能なデータ拡張技術に基づいて、多くの画像からブレンド画像を生成し、分布シフト時の認識精度を向上させる。
論文 参考訳(メタデータ) (2022-12-09T06:06:47Z) - Soft Augmentation for Image Classification [68.71067594724663]
本稿では,変分変換による拡張の一般化とソフト拡張を提案する。
ソフトターゲットは、より攻撃的なデータ拡張を可能にすることを示す。
また,ソフト拡張が自己教師付き分類タスクに一般化されることも示している。
論文 参考訳(メタデータ) (2022-11-09T01:04:06Z) - AugMax: Adversarial Composition of Random Augmentations for Robust
Training [118.77956624445994]
我々はAugMaxと呼ばれるデータ拡張フレームワークを提案し、多様性と硬さの2つの側面を統合する。
AugMaxはまず複数の拡張演算子をランダムにサンプリングし、選択した演算子の逆混合を学習する。
実験の結果、AugMax-DuBINはアウト・オブ・ディストリビューション・ロバスト性を大幅に改善し、前者芸術の3.03%、3.49%、1.82%、0.71%を上回った。
論文 参考訳(メタデータ) (2021-10-26T15:23:56Z) - Image Augmentations for GAN Training [57.65145659417266]
我々は,バニラGANとGANの両方のイメージを正規化して拡張する方法に関する洞察とガイドラインを提供する。
意外なことに、Vanilla GANsは、最近の最先端の結果と同等の世代品質を実現している。
論文 参考訳(メタデータ) (2020-06-04T00:16:02Z) - PointAugment: an Auto-Augmentation Framework for Point Cloud
Classification [105.27565020399]
PointAugmentは、分類ネットワークをトレーニングする際のデータの多様性を強化するために、ポイントクラウドサンプルを自動的に最適化し、拡張する新しい自動拡張フレームワークである。
学習可能な点増分関数を、形状変換と点変位で定式化し、さらに、追加サンプルを採用するために、損失関数を慎重に設計する。
論文 参考訳(メタデータ) (2020-02-25T14:25:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。