論文の概要: Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2003.01090v2
- Date: Tue, 3 Mar 2020 16:51:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 04:56:41.029058
- Title: Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness
- Title(参考訳): Learn2Perturb: 対向ロバスト性を改善するエンドツーエンド機能摂動学習
- Authors: Ahmadreza Jeddi, Mohammad Javad Shafiee, Michelle Karg, Christian
Scharfenberger and Alexander Wong
- Abstract要約: Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
- 参考スコア(独自算出の注目度): 79.47619798416194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep neural networks have been achieving state-of-the-art performance
across a wide variety of applications, their vulnerability to adversarial
attacks limits their widespread deployment for safety-critical applications.
Alongside other adversarial defense approaches being investigated, there has
been a very recent interest in improving adversarial robustness in deep neural
networks through the introduction of perturbations during the training process.
However, such methods leverage fixed, pre-defined perturbations and require
significant hyper-parameter tuning that makes them very difficult to leverage
in a general fashion. In this study, we introduce Learn2Perturb, an end-to-end
feature perturbation learning approach for improving the adversarial robustness
of deep neural networks. More specifically, we introduce novel
perturbation-injection modules that are incorporated at each layer to perturb
the feature space and increase uncertainty in the network. This feature
perturbation is performed at both the training and the inference stages.
Furthermore, inspired by the Expectation-Maximization, an alternating
back-propagation training algorithm is introduced to train the network and
noise parameters consecutively. Experimental results on CIFAR-10 and CIFAR-100
datasets show that the proposed Learn2Perturb method can result in deep neural
networks which are $4-7\%$ more robust on $l_{\infty}$ FGSM and PDG adversarial
attacks and significantly outperforms the state-of-the-art against $l_2$ $C\&W$
attack and a wide range of well-known black-box attacks.
- Abstract(参考訳): ディープニューラルネットワークは、さまざまなアプリケーションで最先端のパフォーマンスを達成しているが、敵の攻撃に対する脆弱性は、安全クリティカルなアプリケーションへの展開を制限している。
研究されている他の敵防衛アプローチとともに、訓練過程における摂動の導入を通じて、ディープニューラルネットワークにおける敵の堅牢性を改善することに非常に関心が寄せられている。
しかし、そのような手法は固定された事前定義された摂動を利用し、大きなハイパーパラメータチューニングを必要とするため、一般的な方法での活用は非常に困難である。
本研究では,深層ニューラルネットワークの対角的堅牢性を改善するために,エンドツーエンドの機能摂動学習アプローチであるLearner2Perturbを紹介する。
より具体的には、各層に組み込まれた新しい摂動射出モジュールを導入し、特徴空間を摂動させ、ネットワーク内の不確実性を高める。
この特徴の摂動はトレーニングと推論の両方の段階で行われる。
さらに、予測最大化にヒントを得て、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムを導入する。
CIFAR-10とCIFAR-100データセットによる実験結果から、提案したLearner2Perturbメソッドは、$l_{\infty}$ FGSMとPDGの敵攻撃に対して4~7倍の堅牢性を持つディープニューラルネットワークを実現し、$l_2$C\&W$攻撃に対する最先端の攻撃と、広く知られたブラックボックス攻撃を著しく上回ります。
関連論文リスト
- Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Learning Dynamics and Generalization in Reinforcement Learning [59.530058000689884]
時間差学習は, エージェントが訓練の初期段階において, 値関数の非平滑成分を適合させるのに役立つことを理論的に示す。
本研究では,高密度報酬タスクの時間差アルゴリズムを用いて学習したニューラルネットワークが,ランダムなネットワークや政策手法で学習した勾配ネットワークよりも,状態間の一般化が弱いことを示す。
論文 参考訳(メタデータ) (2022-06-05T08:49:16Z) - Pruning in the Face of Adversaries [0.0]
ニューラルネットワークのプルーニングがL-0,L-2,L-infinity攻撃に対する対向的ロバスト性に及ぼす影響を評価する。
その結果,ニューラルネットワークのプルーニングと対向ロバスト性は相互に排他的ではないことが確認された。
分析を敵のシナリオに付加的な仮定を取り入れた状況にまで拡張し、状況によって異なる戦略が最適であることを示す。
論文 参考訳(メタデータ) (2021-08-19T09:06:16Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Self-Gradient Networks [19.72769528722572]
敵の摂動に対してより堅牢であるように設計された新しいディープニューラルネットワークアーキテクチャを提案する。
自己段階的なネットワークは、より効率的で効果的な敵の訓練を可能にし、少なくとも10倍の高速な敵の堅牢な解への収束をもたらす。
実験結果は、最先端の対人学習戦略と比較した場合、自己段階的ネットワークの有効性を示す。
論文 参考訳(メタデータ) (2020-11-18T16:04:05Z) - Hardware Accelerator for Adversarial Attacks on Deep Learning Neural
Networks [7.20382137043754]
強靭な物理的摂動を生成するために, 対向攻撃ネットワークアルゴリズムのクラスが提案されている。
本稿では,メムリスタクロスバーアレーをベースとした敵攻撃用ハードウェアアクセラレータを提案する。
論文 参考訳(メタデータ) (2020-08-03T21:55:41Z) - Improving Adversarial Robustness by Enforcing Local and Global
Compactness [19.8818435601131]
敵の訓練は、広範囲の攻撃に一貫して抵抗する最も成功した方法である。
本稿では,局所的・言語的コンパクト性とクラスタリングの仮定を強制する分散分散化ネットワークを提案する。
実験の結果,提案するコンポーネントによる対人訓練の強化は,ネットワークの堅牢性をさらに向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2020-07-10T00:43:06Z) - Evaluation of Adversarial Training on Different Types of Neural Networks
in Deep Learning-based IDSs [3.8073142980733]
我々は、異なる回避攻撃の有効性と、レジリエンス深層学習に基づくIDSの訓練方法に焦点をあてる。
我々は min-max アプローチを用いて、敵の例に対して頑健なIDSを訓練する問題を定式化する。
異なるディープラーニングアルゴリズムと異なるベンチマークデータセットに関する実験により、敵の訓練に基づくmin-maxアプローチによる防御が、よく知られた5つの敵の攻撃方法に対する堅牢性を向上することを示した。
論文 参考訳(メタデータ) (2020-07-08T23:33:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。