論文の概要: Robustness-via-Synthesis: Robust Training with Generative Adversarial
Perturbations
- arxiv url: http://arxiv.org/abs/2108.09713v1
- Date: Sun, 22 Aug 2021 13:15:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 15:44:13.687506
- Title: Robustness-via-Synthesis: Robust Training with Generative Adversarial
Perturbations
- Title(参考訳): Robustness-via-synthesis: 対向摂動を用いたロバストトレーニング
- Authors: Inci M. Baytas and Debayan Deb
- Abstract要約: 先制攻撃による敵の訓練は、今日の敵の摂動に対する最も効果的な防御の1つである。
本研究では, 逆方向の摂動を自動的にランダムなベクトルから生成ネットワークを用いて合成する頑健な学習アルゴリズムを提案する。
実験結果から, 提案手法は様々な勾配に基づく, 生成的ロバストトレーニング手法により, 同等のロバスト性が得られることがわかった。
- 参考スコア(独自算出の注目度): 10.140147080535224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Upon the discovery of adversarial attacks, robust models have become
obligatory for deep learning-based systems. Adversarial training with
first-order attacks has been one of the most effective defenses against
adversarial perturbations to this day. The majority of the adversarial training
approaches focus on iteratively perturbing each pixel with the gradient of the
loss function with respect to the input image. However, the adversarial
training with gradient-based attacks lacks diversity and does not generalize
well to natural images and various attacks. This study presents a robust
training algorithm where the adversarial perturbations are automatically
synthesized from a random vector using a generator network. The classifier is
trained with cross-entropy loss regularized with the optimal transport distance
between the representations of the natural and synthesized adversarial samples.
Unlike prevailing generative defenses, the proposed one-step attack generation
framework synthesizes diverse perturbations without utilizing gradient of the
classifier's loss. Experimental results show that the proposed approach attains
comparable robustness with various gradient-based and generative robust
training techniques on CIFAR10, CIFAR100, and SVHN datasets. In addition,
compared to the baselines, the proposed robust training framework generalizes
well to the natural samples. Code and trained models will be made publicly
available.
- Abstract(参考訳): 敵対的攻撃が発見されると、堅牢なモデルはディープラーニングベースのシステムに義務付けられている。
先制攻撃による敵の訓練は、今日の敵の摂動に対する最も効果的な防御の1つである。
敵対的トレーニングのアプローチの大半は、入力画像に対する損失関数の勾配で各ピクセルを反復的に摂動することに焦点を当てている。
しかし、勾配に基づく攻撃を伴う敵対的な訓練は多様性を欠き、自然画像や様々な攻撃に対して十分に一般化していない。
本研究では,生成ネットワークを用いてランダムベクトルから逆摂動を自動的に合成するロバストなトレーニングアルゴリズムを提案する。
この分類器は、自然対向サンプルと合成対向サンプルとの最適な輸送距離で規則化されたクロスエントロピー損失で訓練される。
一般的な生成防御とは異なり、提案したワンステップ攻撃生成フレームワークは、分類器の損失の勾配を使わずに多様な摂動を合成する。
実験の結果,提案手法はCIFAR10, CIFAR100, SVHNデータセット上での様々な勾配に基づく, 生成的ロバストトレーニング手法と同等のロバスト性が得られることがわかった。
さらに、ベースラインと比較して、提案するロバストトレーニングフレームワークは、自然サンプルにうまく一般化する。
コードとトレーニングされたモデルは公開されます。
関連論文リスト
- How Robust Are Energy-Based Models Trained With Equilibrium Propagation? [4.374837991804085]
敵の訓練は、敵の攻撃に対する現在の最先端の防御である。
クリーンな入力に対するモデルの精度を低くし、計算コストも高く、自然騒音に対する堅牢性も低い。
対照的に、エネルギーベースモデル(EBM)は各層から前の層へのフィードバック接続を組み込んでおり、繰り返し発生する深層構造をもたらす。
論文 参考訳(メタデータ) (2024-01-21T16:55:40Z) - Universal Adversarial Defense in Remote Sensing Based on Pre-trained Denoising Diffusion Models [17.283914361697818]
深部ニューラルネットワーク(DNN)は、地球観測のための多数のAIアプリケーション(AI4EO)において重要なソリューションとして注目されている。
本稿では、リモートセンシング画像(UAD-RS)における新しいユニバーサル・ディフェンス・アプローチを提案する。
論文 参考訳(メタデータ) (2023-07-31T17:21:23Z) - Adversarial Training Should Be Cast as a Non-Zero-Sum Game [121.95628660889628]
対人訓練の2つのプレイヤーゼロサムパラダイムは、十分な強靭性を発揮できていない。
敵のトレーニングアルゴリズムでよく使われるサロゲートベースの緩和は、ロバスト性に関するすべての保証を無効にすることを示す。
対人訓練の新たな非ゼロサム二段階の定式化は、一致し、場合によっては最先端の攻撃よりも優れたフレームワークをもたらす。
論文 参考訳(メタデータ) (2023-06-19T16:00:48Z) - Carefully Blending Adversarial Training and Purification Improves Adversarial Robustness [1.2289361708127877]
CARSOは、防御のために考案された適応的なエンドツーエンドのホワイトボックス攻撃から自身を守ることができる。
提案手法はCIFAR-10, CIFAR-100, TinyImageNet-200の最先端技術により改善されている。
論文 参考訳(メタデータ) (2023-05-25T09:04:31Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Self-Ensemble Adversarial Training for Improved Robustness [14.244311026737666]
敵の訓練は、あらゆる種類の防衛方法において、様々な敵の攻撃に対する最強の戦略である。
最近の研究は主に新しい損失関数や正規化器の開発に重点を置いており、重み空間の特異な最適点を見つけようとしている。
我々は,歴史モデルの重みを平均化し,頑健な分類器を生成するための,単純だが強力なemphSelf-Ensemble Adversarial Training (SEAT)法を考案した。
論文 参考訳(メタデータ) (2022-03-18T01:12:18Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Guided Interpolation for Adversarial Training [73.91493448651306]
トレーニングが進むにつれて、トレーニングデータは徐々に攻撃しやすくなり、堅牢性の向上が損なわれる。
本稿では,前時代のメタ情報を用いて,データの逆変換をガイドするguided framework(gif)を提案する。
バニラミキサアップと比較すると、GIFは攻撃可能なデータの比率を高くすることができ、堅牢性向上に有効である。
論文 参考訳(メタデータ) (2021-02-15T03:55:08Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。