論文の概要: Towards Defending Multiple Adversarial Perturbations via Gated Batch
Normalization
- arxiv url: http://arxiv.org/abs/2012.01654v1
- Date: Thu, 3 Dec 2020 02:26:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 14:57:59.483677
- Title: Towards Defending Multiple Adversarial Perturbations via Gated Batch
Normalization
- Title(参考訳): ゲート型バッチ正規化による複数対向摂動の回避に向けて
- Authors: Aishan Liu, Shiyu Tang, Xianglong Liu, Xinyun Chen, Lei Huang,
Zhuozhuo Tu, Dawn Song, Dacheng Tao
- Abstract要約: 既存の敵防衛は 個々の摂動タイプに対する モデル堅牢性を向上します
本稿では,複数の摂動型に対するロバスト性を改善するディープニューラルネットワークのための新しいビルディングブロックであるEmphGated Batch Normalization (GBN)を提案する。
- 参考スコア(独自算出の注目度): 140.07164114112922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is now extensive evidence demonstrating that deep neural networks are
vulnerable to adversarial examples, motivating the development of defenses
against adversarial attacks. However, existing adversarial defenses typically
improve model robustness against individual specific perturbation types. Some
recent methods improve model robustness against adversarial attacks in multiple
$\ell_p$ balls, but their performance against each perturbation type is still
far from satisfactory. To better understand this phenomenon, we propose the
\emph{multi-domain} hypothesis, stating that different types of adversarial
perturbations are drawn from different domains. Guided by the multi-domain
hypothesis, we propose \emph{Gated Batch Normalization (GBN)}, a novel building
block for deep neural networks that improves robustness against multiple
perturbation types. GBN consists of a gated sub-network and a multi-branch
batch normalization (BN) layer, where the gated sub-network separates different
perturbation types, and each BN branch is in charge of a single perturbation
type and learns domain-specific statistics for input transformation. Then,
features from different branches are aligned as domain-invariant
representations for the subsequent layers. We perform extensive evaluations of
our approach on MNIST, CIFAR-10, and Tiny-ImageNet, and demonstrate that GBN
outperforms previous defense proposals against multiple perturbation types,
i.e, $\ell_1$, $\ell_2$, and $\ell_{\infty}$ perturbations, by large margins of
10-20\%.
- Abstract(参考訳): 現在、ディープニューラルネットワークが敵の例に弱いことを示し、敵の攻撃に対する防御の開発を動機付けている。
しかし、既存の敵対的防御は、個々の摂動タイプに対するモデルのロバスト性を改善する。
最近の手法では、複数の$\ell_p$球における敵攻撃に対するモデルロバスト性を改善するが、各摂動型に対するそれらの性能は、まだ十分ではない。
この現象をよりよく理解するために、異なる種類の逆摂動が異なる領域から引き起こされるという、 \emph{multi-domain}仮説を提案する。
マルチドメイン仮説を用いて,複数の摂動型に対するロバスト性を改善するディープニューラルネットワークのための新しいビルディングブロックである \emph{Gated Batch Normalization (GBN)} を提案する。
GBNは、ゲートサブネットワークとマルチブランチバッチ正規化(BN)層で構成され、ゲートサブネットワークは異なる摂動型を分離し、それぞれのBNブランチは単一の摂動型を扱い、入力変換のためのドメイン固有の統計学を学ぶ。
そして、異なるブランチのフィーチャは、続くレイヤのドメイン不変表現としてアラインされる。
我々は,MNIST,CIFAR-10,Tiny-ImageNetに対する我々のアプローチを広範囲に評価し,GBNが従来の複数の摂動型に対する防御提案,すなわち$\ell_1$,$\ell_2$,$\ell_{\infty}$摂動を10~20\%で上回っていることを示す。
関連論文リスト
- $σ$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial Examples [14.17412770504598]
入力摂動の作成には$ell_infty$-normの制約が使用できることを示す。
我々は $sigma$-norm と呼ばれる新しい $ell_infty$-norm 攻撃を提案する。
これは、成功、サイズ、効率の点で競合するすべての敵攻撃を上回っます。
論文 参考訳(メタデータ) (2024-02-02T20:08:11Z) - Hindering Adversarial Attacks with Implicit Neural Representations [25.422201099331637]
Lossy Implicit Network Activation Coding (LINAC) の防衛は、いくつかの共通の敵攻撃を妨害する。
鍵ベース防衛のためのパラメトリックバイパス近似(PBA)攻撃戦略を考案し,このカテゴリにおける既存手法の無効化に成功した。
論文 参考訳(メタデータ) (2022-10-22T13:10:24Z) - Adaptive Smoothness-weighted Adversarial Training for Multiple
Perturbations with Its Stability Analysis [39.90487314421744]
対人訓練(Adrial Training:AT)は、敵の事例に対して最も効果的な方法の1つとして実証されている。
異なる摂動型に対する対向ロバスト性を一般化するために、多重摂動(ATMP)のアドリナルトレーニングを提案する。
安定性に基づく過剰リスク境界を開発し、複数の摂動に対する適応重み付き対向トレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-02T15:42:34Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack [92.94132883915876]
最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
対向騒音に対するロバスト性を改善するための多くの防御法が提案されている。
敵の強靭さを評価することは 極めて困難であることが分かりました
論文 参考訳(メタデータ) (2021-06-03T01:45:48Z) - Robustifying $\ell_\infty$ Adversarial Training to the Union of
Perturbation Models [120.71277007016708]
我々は、広く普及しているシングルアタック$ell_infty$ ATフレームワークの機能を拡張する。
我々の手法はSNAP(Noss Augmented Processing)と呼ばれ、単一攻撃ATフレームワークの優れた副産物を利用する。
SNAPは、標準的なシングルアタックATを用いて、ネットワークパラメータとともに分布を学習する形状のノイズ増強層を持つ、与えられたディープネットをプリペイドする。
論文 参考訳(メタデータ) (2021-05-31T05:18:42Z) - Generating Structured Adversarial Attacks Using Frank-Wolfe Method [7.84752424025677]
異なるノルムによる逆探索の制約は、異なる構成の逆の例をもたらす。
構造化逆数例は、モデルをより堅牢にしたり、構造的に異なるデータセット上での性能を向上させるために、モデルの逆正則化に使用することができる。
論文 参考訳(メタデータ) (2021-02-15T06:36:50Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。