論文の概要: Robustifying $\ell_\infty$ Adversarial Training to the Union of
Perturbation Models
- arxiv url: http://arxiv.org/abs/2105.14710v1
- Date: Mon, 31 May 2021 05:18:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 05:40:03.066100
- Title: Robustifying $\ell_\infty$ Adversarial Training to the Union of
Perturbation Models
- Title(参考訳): ロバスト化$\ell_\infty$Adversarial Training to the Union of Perturbation Models
- Authors: Ameya D. Patil, Michael Tuttle, Alexander G. Schwing, Naresh R.
Shanbhag
- Abstract要約: 我々は、広く普及しているシングルアタック$ell_infty$ ATフレームワークの機能を拡張する。
我々の手法はSNAP(Noss Augmented Processing)と呼ばれ、単一攻撃ATフレームワークの優れた副産物を利用する。
SNAPは、標準的なシングルアタックATを用いて、ネットワークパラメータとともに分布を学習する形状のノイズ増強層を持つ、与えられたディープネットをプリペイドする。
- 参考スコア(独自算出の注目度): 120.71277007016708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classical adversarial training (AT) frameworks are designed to achieve high
adversarial accuracy against a single attack type, typically $\ell_\infty$
norm-bounded perturbations. Recent extensions in AT have focused on defending
against the union of multiple perturbations but this benefit is obtained at the
expense of a significant (up to $10\times$) increase in training complexity
over single-attack $\ell_\infty$ AT. In this work, we expand the capabilities
of widely popular single-attack $\ell_\infty$ AT frameworks to provide
robustness to the union of ($\ell_\infty, \ell_2, \ell_1$) perturbations while
preserving their training efficiency. Our technique, referred to as Shaped
Noise Augmented Processing (SNAP), exploits a well-established byproduct of
single-attack AT frameworks -- the reduction in the curvature of the decision
boundary of networks. SNAP prepends a given deep net with a shaped noise
augmentation layer whose distribution is learned along with network parameters
using any standard single-attack AT. As a result, SNAP enhances adversarial
accuracy of ResNet-18 on CIFAR-10 against the union of ($\ell_\infty, \ell_2,
\ell_1$) perturbations by 14%-to-20% for four state-of-the-art (SOTA)
single-attack $\ell_\infty$ AT frameworks, and, for the first time, establishes
a benchmark for ResNet-50 and ResNet-101 on ImageNet.
- Abstract(参考訳): 古典的対人訓練(AT)フレームワークは、単一の攻撃タイプ(通常$\ell_\infty$ norm-bounded perturbations)に対して高い対人的精度を達成するように設計されている。
ATの最近の拡張は、複数の摂動の連合に対する防御に重点を置いているが、この利点はシングルアタックの$\ell_\infty$ ATに対するトレーニングの複雑さの増大(最大10\times$)を犠牲にして得られる。
本研究では,訓練効率を保ちながら(\ell_\infty, \ell_2, \ell_1$)摂動の和合に堅牢性を提供するために,広く普及しているシングルアタック$\ell_\infty$ ATフレームワークの機能を拡張する。
我々の技術は、SNAP(Shaped Noise Augmented Processing)と呼ばれ、ネットワークの決定境界の曲率を減少させるシングルアタックATフレームワークの確立した副産物を利用する。
snapは、標準的なシングルアタックアタックを使用してネットワークパラメータとともに分布を学習する形状のノイズ拡張層を備えたディープネットを推奨する。
その結果、SNAPは、CIFAR-10上のResNet-18の対向精度を、14%から20%向上させ、4つの最先端(SOTA)シングルアタック$\ell_\infty$ ATフレームワークに対して向上させ、ImageNet上でResNet-50とResNet-101のベンチマークを初めて確立した。
関連論文リスト
- Deep Adversarial Defense Against Multilevel-Lp Attacks [5.604868766260297]
本稿では,EMRC法 (Efficient Robust Mode Connectivity) と呼ばれる,計算効率の良いマルチレベル$ell_p$ディフェンスを提案する。
連続最適化で用いられる解析的継続アプローチと同様に、この手法は2つの$p$特化逆最適化モデルをブレンドする。
我々は,AT-$ell_infty$,E-AT,MSDと比較して,本手法が様々な攻撃に対して優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2024-07-12T13:30:00Z) - RAMP: Boosting Adversarial Robustness Against Multiple $l_p$
Perturbations [4.70722607350087]
textbfRAMPは、頑健な微調整と全対角訓練の両方に容易に適応できることを示す。
スクラッチからトレーニングするために、 textbfRAMP は SOTA の結合精度を44.6% で、比較的良好な清潔さを ResNet-18 で AutoAttack に対して 811.2% で達成している。
論文 参考訳(メタデータ) (2024-02-09T23:29:54Z) - $\sigma$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial
Examples [12.154652744262476]
Sigma-zeroは、時間を要するハイパーセルチューニングを必要とせず、最小$ell_infty$-normの例を見つけ、成功、サイズ、堅牢性の点で競合するすべての攻撃を上回ります。
論文 参考訳(メタデータ) (2024-02-02T20:08:11Z) - Group-wise Sparse and Explainable Adversarial Attacks [22.554728415868574]
スパース敵は、最小ピクセルの摂動によって、愚かなディープニューラルネットワーク(DNN)を攻撃します。
近年の取り組みは、この標準を核対逆法則としてスパーシティ正則化器に置き換えている。
画像のスパース的に意味のある領域内でグループワイズ攻撃を同時に生成するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-29T08:26:18Z) - Sparsity Winning Twice: Better Robust Generalization from More Efficient
Training [94.92954973680914]
スパース対位訓練の代替として, (i) スタティック・スパシティと (ii) ダイナミック・スパシティの2つを紹介した。
いずれの方法も、ロバストな一般化ギャップを大幅に縮小し、ロバストなオーバーフィッティングを緩和する。
我々のアプローチは既存の正規化器と組み合わせて、敵の訓練における新たな最先端の成果を確立することができる。
論文 参考訳(メタデータ) (2022-02-20T15:52:08Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - Adversarial robustness against multiple $l_p$-threat models at the price
of one and how to quickly fine-tune robust models to another threat model [79.05253587566197]
対向的堅牢性を実現するために, 対向的トレーニング (AT) を単一$l_p$-threatモデルで行うことが広く議論されている。
本稿では,$l_p$-threatモデルの結合に対する対角的ロバスト性を実現するための,シンプルで効率的なトレーニング手法を開発する。
論文 参考訳(メタデータ) (2021-05-26T12:20:47Z) - Towards Defending Multiple $\ell_p$-norm Bounded Adversarial
Perturbations via Gated Batch Normalization [120.99395850108422]
既存の敵防衛は、個々の摂動に対するモデル堅牢性を改善するのが一般的である。
最近の手法では、複数の$ell_p$球における敵攻撃に対するモデルロバスト性を改善するが、各摂動型に対するそれらの性能は、まだ十分ではない。
我々は,複数の$ell_pの有界摂動を守るために,摂動不変予測器を逆向きに訓練するGated Batch Normalization (GBN)を提案する。
論文 参考訳(メタデータ) (2020-12-03T02:26:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。