論文の概要: Improving Global Adversarial Robustness Generalization With
Adversarially Trained GAN
- arxiv url: http://arxiv.org/abs/2103.04513v1
- Date: Mon, 8 Mar 2021 02:18:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 08:44:35.654064
- Title: Improving Global Adversarial Robustness Generalization With
Adversarially Trained GAN
- Title(参考訳): 逆訓練ganによるグローバル・アドバーサリー・ロバストネス一般化の改善
- Authors: Desheng Wang (1), Weidong Jin (1), Yunpu Wu (1), Aamir Khan (1) ((1)
School of Electrical Engineering, Southwest Jiaotong University, Chengdu, P.
R. China)
- Abstract要約: 畳み込みニューラルネットワーク(cnns)は、画像分類タスクにおいて人間のレベルの精度を超えている。
cnnは、分類モデルを誤解することを目的としたよく設計されたノイズである敵対的摂動に対する脆弱性を示す。
対人訓練により訓練された最先端CNNの対人ロバスト性一般化を改善するために、対人訓練GAN(ATGAN)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs) have achieved beyond human-level
accuracy in the image classification task and are widely deployed in real-world
environments. However, CNNs show vulnerability to adversarial perturbations
that are well-designed noises aiming to mislead the classification models. In
order to defend against the adversarial perturbations, adversarially trained
GAN (ATGAN) is proposed to improve the adversarial robustness generalization of
the state-of-the-art CNNs trained by adversarial training. ATGAN incorporates
adversarial training into standard GAN training procedure to remove obfuscated
gradients which can lead to a false sense in defending against the adversarial
perturbations and are commonly observed in existing GANs-based adversarial
defense methods. Moreover, ATGAN adopts the image-to-image generator as data
augmentation to increase the sample complexity needed for adversarial
robustness generalization in adversarial training. Experimental results in
MNIST SVHN and CIFAR-10 datasets show that the proposed method doesn't rely on
obfuscated gradients and achieves better global adversarial robustness
generalization performance than the adversarially trained state-of-the-art
CNNs.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、画像分類タスクにおける人間レベルの精度を超えて達成され、現実の環境で広く展開されています。
しかし、cnnは分類モデルを誤解することを目的としたよく設計されたノイズである逆向摂動に対する脆弱性を示す。
対向的摂動から守るために, 対向的訓練を受けたGAN(ATGAN)が提案され, 対向的訓練によって訓練された最先端CNNの対向的堅牢性一般化を改善する。
ATGANは、敵対的摂動に対する防御において誤った感覚につながる可能性のある難読化グラデーションを除去するための標準GANトレーニング手順に敵対的トレーニングを組み込んでおり、既存のGANsベースの敵対的防御方法で一般的に観察される。
さらに、atganは画像から画像へのジェネレータをデータ拡張として採用し、敵のロバスト性一般化に必要なサンプルの複雑さを高めている。
MNIST SVHN と CIFAR-10 データセットによる実験結果から,提案手法は難解勾配に依存しず,対向的に訓練された CNN よりも優れた大域的対向ロバスト性一般化性能が得られることが示された。
関連論文リスト
- Improved and Interpretable Defense to Transferred Adversarial Examples
by Jacobian Norm with Selective Input Gradient Regularization [31.516568778193157]
ディープニューラルネットワーク(DNN)の堅牢性を改善するために、AT(Adversarial Training)がよく用いられる。
本研究では,ジャコビアンノルムと選択的入力勾配正規化(J-SIGR)に基づくアプローチを提案する。
実験により、提案したJ-SIGRは、転送された敵攻撃に対するロバスト性を向上し、ニューラルネットワークからの予測が容易に解釈できることが示されている。
論文 参考訳(メタデータ) (2022-07-09T01:06:41Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks [55.92475932732775]
本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-29T22:30:32Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Robustness through Cognitive Dissociation Mitigation in Contrastive
Adversarial Training [2.538209532048867]
本稿では,新たなニューラルネットワークトレーニングフレームワークを提案する。
本稿では,データ拡張と対向的摂動の両面に一貫性のある特徴表現を学習することで,敵攻撃に対するモデルロバスト性を改善することを提案する。
我々は,CIFAR-10データセットを用いて,教師付きおよび自己教師付き対向学習法よりも頑健な精度とクリーンな精度を両立させる手法を検証する。
論文 参考訳(メタデータ) (2022-03-16T21:41:27Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z) - Robustness-via-Synthesis: Robust Training with Generative Adversarial
Perturbations [10.140147080535224]
先制攻撃による敵の訓練は、今日の敵の摂動に対する最も効果的な防御の1つである。
本研究では, 逆方向の摂動を自動的にランダムなベクトルから生成ネットワークを用いて合成する頑健な学習アルゴリズムを提案する。
実験結果から, 提案手法は様々な勾配に基づく, 生成的ロバストトレーニング手法により, 同等のロバスト性が得られることがわかった。
論文 参考訳(メタデータ) (2021-08-22T13:15:24Z) - Universal Adversarial Training with Class-Wise Perturbations [78.05383266222285]
敵の訓練は 敵の攻撃を防御するために 最も広く使われる方法です
この作業では、UAPがすべてのクラスを等しく攻撃しないことがわかります。
我々は,対人訓練におけるクラスワイドUAPの利用を提案することで,SOTA UATを改善した。
論文 参考訳(メタデータ) (2021-04-07T09:05:49Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Semantics-Preserving Adversarial Training [12.242659601882147]
逆行訓練は、訓練データに逆行例を含めることで、ディープニューラルネットワーク(DNN)の逆行性を改善する技術である。
本研究では,すべてのクラスで共有される画素の摂動を促すセマンティックス保存逆行訓練(SPAT)を提案する。
実験の結果,SPATは対向ロバスト性を向上し,CIFAR-10およびCIFAR-100の最先端結果を達成することがわかった。
論文 参考訳(メタデータ) (2020-09-23T07:42:14Z) - Improving adversarial robustness of deep neural networks by using
semantic information [17.887586209038968]
対人訓練は、敵の堅牢性を改善するための主要な方法であり、対人攻撃に対する第一線である。
本稿では,ネットワーク全体から,あるクラスに対応する決定境界に近い領域の重要部分に焦点を移す,対向ロバスト性の問題に対する新たな視点を提供する。
MNISTとCIFAR-10データセットの実験的結果は、この手法がトレーニングデータから非常に小さなデータセットを使用しても、敵の堅牢性を大幅に向上することを示している。
論文 参考訳(メタデータ) (2020-08-18T10:23:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。