論文の概要: Towards Defending Multiple $\ell_p$-norm Bounded Adversarial
Perturbations via Gated Batch Normalization
- arxiv url: http://arxiv.org/abs/2012.01654v2
- Date: Fri, 11 Aug 2023 12:57:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 18:22:42.300436
- Title: Towards Defending Multiple $\ell_p$-norm Bounded Adversarial
Perturbations via Gated Batch Normalization
- Title(参考訳): ゲーテッドバッチ正規化による複数$\ell_p$-norm境界境界摂動の抑制に向けて
- Authors: Aishan Liu, Shiyu Tang, Xinyun Chen, Lei Huang, Haotong Qin, Xianglong
Liu, Dacheng Tao
- Abstract要約: 既存の敵防衛は、個々の摂動に対するモデル堅牢性を改善するのが一般的である。
最近の手法では、複数の$ell_p$球における敵攻撃に対するモデルロバスト性を改善するが、各摂動型に対するそれらの性能は、まだ十分ではない。
我々は,複数の$ell_pの有界摂動を守るために,摂動不変予測器を逆向きに訓練するGated Batch Normalization (GBN)を提案する。
- 参考スコア(独自算出の注目度): 120.99395850108422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been extensive evidence demonstrating that deep neural networks are
vulnerable to adversarial examples, which motivates the development of defenses
against adversarial attacks. Existing adversarial defenses typically improve
model robustness against individual specific perturbation types (\eg,
$\ell_{\infty}$-norm bounded adversarial examples). However, adversaries are
likely to generate multiple types of perturbations in practice (\eg, $\ell_1$,
$\ell_2$, and $\ell_{\infty}$ perturbations). Some recent methods improve model
robustness against adversarial attacks in multiple $\ell_p$ balls, but their
performance against each perturbation type is still far from satisfactory. In
this paper, we observe that different $\ell_p$ bounded adversarial
perturbations induce different statistical properties that can be separated and
characterized by the statistics of Batch Normalization (BN). We thus propose
Gated Batch Normalization (GBN) to adversarially train a perturbation-invariant
predictor for defending multiple $\ell_p$ bounded adversarial perturbations.
GBN consists of a multi-branch BN layer and a gated sub-network. Each BN branch
in GBN is in charge of one perturbation type to ensure that the normalized
output is aligned towards learning perturbation-invariant representation.
Meanwhile, the gated sub-network is designed to separate inputs added with
different perturbation types. We perform an extensive evaluation of our
approach on commonly-used dataset including MNIST, CIFAR-10, and Tiny-ImageNet,
and demonstrate that GBN outperforms previous defense proposals against
multiple perturbation types (\ie, $\ell_1$, $\ell_2$, and $\ell_{\infty}$
perturbations) by large margins.
- Abstract(参考訳): ディープニューラルネットワークが敵の攻撃に対する防御の開発を動機付ける敵の事例に対して脆弱であることを示す証拠が広く存在する。
既存の敵防御は、個々の特定の摂動タイプに対するモデルのロバスト性を改善する(\eg, $\ell_{\infty}$-normbounded adversarial example)。
しかし、敵は実際には複数のタイプの摂動を生成する可能性が高い(\eg, $\ell_1$, $\ell_2$, $\ell_{\infty}$摂動)。
最近の手法では、複数の$\ell_p$球における敵攻撃に対するモデルロバスト性を改善するが、各摂動型に対するそれらの性能は、まだ十分ではない。
本稿では,異なる$\ell_p$有界対向摂動が,バッチ正規化(BN)の統計によって分離・特徴付けられる異なる統計特性を誘導することを示す。
そこで我々は,複数の$\ell_p$の有界摂動を守るために,摂動不変予測器を逆向きに訓練するGated Batch Normalization (GBN)を提案する。
GBNはマルチブランチBN層とゲートサブネットワークからなる。
GBNの各BN分岐は、正規化された出力が学習摂動不変表現に整合していることを保証するために、1つの摂動型を担っている。
一方、ゲート付きサブネットワークは、異なる摂動タイプで追加された入力を分離するように設計されている。
我々は、MNIST、CIFAR-10、Tiny-ImageNetを含む一般的なデータセットに対する我々のアプローチを広範囲に評価し、GBNが複数の摂動型(\ie, $\ell_1$, $\ell_2$, $\ell_{\infty}$摂動)に対する従来の防御提案よりも大きなマージンで優れていることを示した。
関連論文リスト
- $σ$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial Examples [14.17412770504598]
入力摂動の作成には$ell_infty$-normの制約が使用できることを示す。
我々は $sigma$-norm と呼ばれる新しい $ell_infty$-norm 攻撃を提案する。
これは、成功、サイズ、効率の点で競合するすべての敵攻撃を上回っます。
論文 参考訳(メタデータ) (2024-02-02T20:08:11Z) - Hindering Adversarial Attacks with Implicit Neural Representations [25.422201099331637]
Lossy Implicit Network Activation Coding (LINAC) の防衛は、いくつかの共通の敵攻撃を妨害する。
鍵ベース防衛のためのパラメトリックバイパス近似(PBA)攻撃戦略を考案し,このカテゴリにおける既存手法の無効化に成功した。
論文 参考訳(メタデータ) (2022-10-22T13:10:24Z) - Adaptive Smoothness-weighted Adversarial Training for Multiple
Perturbations with Its Stability Analysis [39.90487314421744]
対人訓練(Adrial Training:AT)は、敵の事例に対して最も効果的な方法の1つとして実証されている。
異なる摂動型に対する対向ロバスト性を一般化するために、多重摂動(ATMP)のアドリナルトレーニングを提案する。
安定性に基づく過剰リスク境界を開発し、複数の摂動に対する適応重み付き対向トレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-02T15:42:34Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack [92.94132883915876]
最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
対向騒音に対するロバスト性を改善するための多くの防御法が提案されている。
敵の強靭さを評価することは 極めて困難であることが分かりました
論文 参考訳(メタデータ) (2021-06-03T01:45:48Z) - Robustifying $\ell_\infty$ Adversarial Training to the Union of
Perturbation Models [120.71277007016708]
我々は、広く普及しているシングルアタック$ell_infty$ ATフレームワークの機能を拡張する。
我々の手法はSNAP(Noss Augmented Processing)と呼ばれ、単一攻撃ATフレームワークの優れた副産物を利用する。
SNAPは、標準的なシングルアタックATを用いて、ネットワークパラメータとともに分布を学習する形状のノイズ増強層を持つ、与えられたディープネットをプリペイドする。
論文 参考訳(メタデータ) (2021-05-31T05:18:42Z) - Generating Structured Adversarial Attacks Using Frank-Wolfe Method [7.84752424025677]
異なるノルムによる逆探索の制約は、異なる構成の逆の例をもたらす。
構造化逆数例は、モデルをより堅牢にしたり、構造的に異なるデータセット上での性能を向上させるために、モデルの逆正則化に使用することができる。
論文 参考訳(メタデータ) (2021-02-15T06:36:50Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。