論文の概要: PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack
- arxiv url: http://arxiv.org/abs/2106.01538v1
- Date: Thu, 3 Jun 2021 01:45:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 16:22:39.701789
- Title: PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack
- Title(参考訳): pdpgd : 初回-二回傾斜降下逆行攻撃
- Authors: Alexander Matyasko, Lap-Pui Chau
- Abstract要約: 最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
対向騒音に対するロバスト性を改善するための多くの防御法が提案されている。
敵の強靭さを評価することは 極めて困難であることが分かりました
- 参考スコア(独自算出の注目度): 92.94132883915876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art deep neural networks are sensitive to small input
perturbations. Since the discovery of this intriguing vulnerability, many
defence methods have been proposed that attempt to improve robustness to
adversarial noise. Fast and accurate attacks are required to compare various
defence methods. However, evaluating adversarial robustness has proven to be
extremely challenging. Existing norm minimisation adversarial attacks require
thousands of iterations (e.g. Carlini & Wagner attack), are limited to the
specific norms (e.g. Fast Adaptive Boundary), or produce sub-optimal results
(e.g. Brendel & Bethge attack). On the other hand, PGD attack, which is fast,
general and accurate, ignores the norm minimisation penalty and solves a
simpler perturbation-constrained problem. In this work, we introduce a fast,
general and accurate adversarial attack that optimises the original non-convex
constrained minimisation problem. We interpret optimising the Lagrangian of the
adversarial attack optimisation problem as a two-player game: the first player
minimises the Lagrangian wrt the adversarial noise; the second player maximises
the Lagrangian wrt the regularisation penalty. Our attack algorithm
simultaneously optimises primal and dual variables to find the minimal
adversarial perturbation. In addition, for non-smooth $l_p$-norm minimisation,
such as $l_{\infty}$-, $l_1$-, and $l_0$-norms, we introduce primal-dual
proximal gradient descent attack. We show in the experiments that our attack
outperforms current state-of-the-art $l_{\infty}$-, $l_2$-, $l_1$-, and
$l_0$-attacks on MNIST, CIFAR-10 and Restricted ImageNet datasets against
unregularised and adversarially trained models.
- Abstract(参考訳): 最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
この興味深い脆弱性の発見以来、敵の雑音に対するロバスト性を改善するために多くの防御方法が提案されている。
高速かつ正確な攻撃は、様々な防御方法を比較するために必要である。
しかし、対向的ロバスト性の評価は極めて困難であることが証明されている。
既存のノルム最小化攻撃は数千回(例)の反復を必要とする。
Carlini & Wagner attack)は特定の規範(例)に限定されている。
Fast Adaptive境界) または、準最適結果(例)を生成する。
Brendel & Bethge attack)。
一方、pgd攻撃は、高速で一般的で正確であり、通常の最小化ペナルティを無視し、より単純な摂動制約問題を解く。
本研究では,非凸制約最小化問題を最適化する高速で汎用的で高精度な敵攻撃を提案する。
敵の攻撃最適化問題のラグランジアンを2人のプレイヤーゲームと解釈し、第1のプレイヤーはラグランジアン wrt を敵のノイズとして最小化し、第2のプレイヤーはラグランジアン wrt を正規化ペナルティとして最大化する。
攻撃アルゴリズムは主変数と双対変数を同時に最適化し,最小対向摂動を求める。
さらに、$l_{\infty}$-, $l_1$-, $l_0$-normsのような非平滑な$l_p$-norm最小化に対しては、原始双極性近位勾配攻撃を導入する。
実験では、mnist、cifar-10およびimagenetデータセットの非正規化および敵対的トレーニングモデルに対する攻撃が、現在の最先端の$l_{\infty}$-、$l_2$-、$l_1$-、$l_0$-攻撃よりも優れています。
関連論文リスト
- $σ$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial Examples [14.17412770504598]
入力摂動の作成には$ell_infty$-normの制約が使用できることを示す。
我々は $sigma$-norm と呼ばれる新しい $ell_infty$-norm 攻撃を提案する。
これは、成功、サイズ、効率の点で競合するすべての敵攻撃を上回っます。
論文 参考訳(メタデータ) (2024-02-02T20:08:11Z) - Adversarial Attacks on Gaussian Process Bandits [47.84198626686564]
本研究では,攻撃者の強さや事前情報に異なる仮定で様々な敵攻撃手法を提案する。
我々の目標は,GPバンディットに対する敵攻撃を理論的・実践的両面から理解することである。
GP帯域に対する敵攻撃は,攻撃予算が低い場合でも,$mathcalR_rmターゲットに対してアルゴリズムを強制的に強制することに成功した。
論文 参考訳(メタデータ) (2021-10-16T02:39:10Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - Fast Minimum-norm Adversarial Attacks through Adaptive Norm Constraints [29.227720674726413]
異なる$ell_p$-norm摂動モデルで動作する高速最小ノルム(FMN)攻撃を提案する。
実験の結果、FMNは収束速度と時間において既存の攻撃よりも著しく優れていた。
論文 参考訳(メタデータ) (2021-02-25T12:56:26Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。