論文の概要: Maximum-Entropy Adversarial Data Augmentation for Improved
Generalization and Robustness
- arxiv url: http://arxiv.org/abs/2010.08001v2
- Date: Fri, 18 Dec 2020 03:37:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 03:24:05.281979
- Title: Maximum-Entropy Adversarial Data Augmentation for Improved
Generalization and Robustness
- Title(参考訳): 一般化とロバスト性向上のための最大エントロピー逆データ拡張
- Authors: Long Zhao, Ting Liu, Xi Peng, Dimitris Metaxas
- Abstract要約: 敵データ拡張のための新しい効果的な正則化項を提案する。
理論的には、最大エントロピーの定式化をもたらす情報ボトルネック原理から導出する。
我々の手法は、統計的に有意なマージンで、既存の最先端技術よりも一貫して優れています。
- 参考スコア(独自算出の注目度): 21.630597505797073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial data augmentation has shown promise for training robust deep
neural networks against unforeseen data shifts or corruptions. However, it is
difficult to define heuristics to generate effective fictitious target
distributions containing "hard" adversarial perturbations that are largely
different from the source distribution. In this paper, we propose a novel and
effective regularization term for adversarial data augmentation. We
theoretically derive it from the information bottleneck principle, which
results in a maximum-entropy formulation. Intuitively, this regularization term
encourages perturbing the underlying source distribution to enlarge predictive
uncertainty of the current model, so that the generated "hard" adversarial
perturbations can improve the model robustness during training. Experimental
results on three standard benchmarks demonstrate that our method consistently
outperforms the existing state of the art by a statistically significant
margin.
- Abstract(参考訳): 敵対的なデータ拡張は、予期せぬデータシフトや腐敗に対する堅牢なディープニューラルネットワークのトレーニングを約束することを示している。
しかしながら、ソース分布と大きく異なる「ハード」な逆摂動を含む効果的な架空のターゲット分布を生成するヒューリスティックを定義することは困難である。
本稿では,敵対的データ拡張のための新しい効果的な正規化用語を提案する。
理論的には、最大エントロピーの定式化をもたらす情報ボトルネック原理から導出する。
直観的には、この正規化項は、現在のモデルの予測の不確実性を拡大するために基礎となるソース分布を摂動させることを奨励し、生成された「ハード」な逆摂動がトレーニング中のモデルのロバスト性を改善することができる。
3つの標準ベンチマークによる実験結果から,本手法は統計的に有意なマージンで既存の技術に一貫して勝っていることが示された。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Regularization for Adversarial Robust Learning [18.46110328123008]
我々は,$phi$-divergence正規化を分散ロバストなリスク関数に組み込む,対角訓練のための新しい手法を開発した。
この正規化は、元の定式化と比較して計算の顕著な改善をもたらす。
本研究では,教師付き学習,強化学習,文脈学習において提案手法の有効性を検証し,様々な攻撃に対して最先端の性能を示す。
論文 参考訳(メタデータ) (2024-08-19T03:15:41Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Causality-oriented robustness: exploiting general additive interventions [3.871660145364189]
本稿では因果性指向のロバスト性に着目し,不変勾配(DRIG)を用いた分布ロバスト性を提案する。
線形環境では、DRIGがデータ依存の分布シフトのクラスの中で頑健な予測を得られることを証明している。
我々は、予測性能をさらに向上させるために、半教師付きドメイン適応設定にアプローチを拡張した。
論文 参考訳(メタデータ) (2023-07-18T16:22:50Z) - Improving Adversarial Robustness by Contrastive Guided Diffusion Process [19.972628281993487]
データ生成における拡散モデルを導くために,コントラスト誘導拡散プロセス(Contrastive-Guided Diffusion Process, DP)を提案する。
生成データ間の識別性の向上は, 対向的ロバスト性の向上に不可欠であることを示す。
論文 参考訳(メタデータ) (2022-10-18T07:20:53Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Adversarial Robustness through the Lens of Causality [105.51753064807014]
ディープニューラルネットワークの敵対的脆弱性は、機械学習において大きな注目を集めている。
我々は、因果関係を敵対的脆弱性の軽減に組み込むことを提案する。
我々の手法は、敵の脆弱性を緩和するために因果性を利用する最初の試みと見なすことができる。
論文 参考訳(メタデータ) (2021-06-11T06:55:02Z) - Intervention Generative Adversarial Networks [21.682592654097352]
本稿では,ジェネレーティブ・アドバイサル・ネットワークの学習過程を安定化するための新しいアプローチを提案する。
得られた生成モデルを、IVGAN(Intervention Generative Adversarial Networks)と呼ぶ。
論文 参考訳(メタデータ) (2020-08-09T11:51:54Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。