論文の概要: $σ$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial Examples
- arxiv url: http://arxiv.org/abs/2402.01879v2
- Date: Wed, 02 Oct 2024 12:42:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-03 15:18:20.817080
- Title: $σ$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial Examples
- Title(参考訳): $σ$-zero: $\ell_0$-norm のグラディエントベースの最適化
- Authors: Antonio Emanuele Cinà, Francesco Villani, Maura Pintor, Lea Schönherr, Battista Biggio, Marcello Pelillo,
- Abstract要約: 入力摂動の作成には$ell_infty$-normの制約が使用できることを示す。
我々は $sigma$-norm と呼ばれる新しい $ell_infty$-norm 攻撃を提案する。
これは、成功、サイズ、効率の点で競合するすべての敵攻撃を上回っます。
- 参考スコア(独自算出の注目度): 14.17412770504598
- License:
- Abstract: Evaluating the adversarial robustness of deep networks to gradient-based attacks is challenging. While most attacks consider $\ell_2$- and $\ell_\infty$-norm constraints to craft input perturbations, only a few investigate sparse $\ell_1$- and $\ell_0$-norm attacks. In particular, $\ell_0$-norm attacks remain the least studied due to the inherent complexity of optimizing over a non-convex and non-differentiable constraint. However, evaluating adversarial robustness under these attacks could reveal weaknesses otherwise left untested with more conventional $\ell_2$- and $\ell_\infty$-norm attacks. In this work, we propose a novel $\ell_0$-norm attack, called $\sigma$-zero, which leverages a differentiable approximation of the $\ell_0$ norm to facilitate gradient-based optimization, and an adaptive projection operator to dynamically adjust the trade-off between loss minimization and perturbation sparsity. Extensive evaluations using MNIST, CIFAR10, and ImageNet datasets, involving robust and non-robust models, show that $\sigma$-zero finds minimum $\ell_0$-norm adversarial examples without requiring any time-consuming hyperparameter tuning, and that it outperforms all competing sparse attacks in terms of success rate, perturbation size, and efficiency.
- Abstract(参考訳): 勾配に基づく攻撃に対するディープ・ネットワークの敵対的堅牢性を評価することは困難である。
ほとんどの攻撃は入力の摂動を発生させるために$\ell_2$-と$\ell_\infty$-normの制約を考慮しているが、$\ell_1$-と$\ell_0$-normの攻撃を調査するのはわずかである。
特に$\ell_0$-normアタックは、非凸かつ微分不可能な制約を最適化する固有の複雑さのために研究されていない。
しかし、これらの攻撃下での敵の堅牢性を評価することは、従来型の$\ell_2$-および$\ell_\infty$-norm攻撃で証明されていない弱点を明らかにする可能性がある。
本研究では、勾配に基づく最適化を容易にするために$\ell_0$ノルムの微分可能な近似を利用する$\sigma$-zeroと呼ばれる新しい$\ell_0$-norm攻撃と、損失最小化と摂動空間のトレードオフを動的に調整する適応プロジェクション演算子を提案する。
MNIST、CIFAR10、ImageNetデータセットを使用した大規模な評価では、$\sigma$-zeroは、時間を要するハイパーパラメータチューニングを必要とせずに最小の$\ell_0$-normの逆例を見つけ、成功率、摂動サイズ、効率の点で競合するスパースアタックをすべて上回っている。
関連論文リスト
- $L_p$-norm Distortion-Efficient Adversarial Attack [13.03797700146213]
現在の攻撃法は、$L$-norm、$L$-norm、$L_infty$-normの歪みの1つしか考慮していない。
我々は、最小の$L$-normを所有するだけでなく、$L_infty$-normの歪みを著しく低減する、新しい$L_p$-norm歪み効率逆攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-03T14:00:33Z) - GSE: Group-wise Sparse and Explainable Adversarial Attacks [20.068273625719943]
スパース敵は、最小ピクセルの摂動によって、愚かなディープニューラルネットワーク(DNN)を攻撃します。
近年の取り組みは、この標準を核グループノルムのようなスパーシティ正則化器に置き換えて、グループワイドの敵攻撃を作らせている。
本稿では,意味的意味のある画像内のグループワイドアタックを生成する2相アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-29T08:26:18Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack [92.94132883915876]
最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
対向騒音に対するロバスト性を改善するための多くの防御法が提案されている。
敵の強靭さを評価することは 極めて困難であることが分かりました
論文 参考訳(メタデータ) (2021-06-03T01:45:48Z) - Fast Minimum-norm Adversarial Attacks through Adaptive Norm Constraints [29.227720674726413]
異なる$ell_p$-norm摂動モデルで動作する高速最小ノルム(FMN)攻撃を提案する。
実験の結果、FMNは収束速度と時間において既存の攻撃よりも著しく優れていた。
論文 参考訳(メタデータ) (2021-02-25T12:56:26Z) - Understanding Frank-Wolfe Adversarial Training [1.2183405753834557]
Adversarial Training(AT)は、最悪のケースの損失を最小限に抑えるために、堅牢な最適化問題を解決する技術です。
frank-wolfe adversarial trainingアプローチが提示され、pgd-atのような競争力レベルの堅牢性を提供する。
論文 参考訳(メタデータ) (2020-12-22T21:36:52Z) - Towards Defending Multiple $\ell_p$-norm Bounded Adversarial
Perturbations via Gated Batch Normalization [120.99395850108422]
既存の敵防衛は、個々の摂動に対するモデル堅牢性を改善するのが一般的である。
最近の手法では、複数の$ell_p$球における敵攻撃に対するモデルロバスト性を改善するが、各摂動型に対するそれらの性能は、まだ十分ではない。
我々は,複数の$ell_pの有界摂動を守るために,摂動不変予測器を逆向きに訓練するGated Batch Normalization (GBN)を提案する。
論文 参考訳(メタデータ) (2020-12-03T02:26:01Z) - Sharp Statistical Guarantees for Adversarially Robust Gaussian
Classification [54.22421582955454]
逆向きに頑健な分類の過剰リスクに対する最適ミニマックス保証の最初の結果を提供する。
結果はAdvSNR(Adversarial Signal-to-Noise Ratio)の項で述べられており、これは標準的な線形分類と逆数設定との類似の考え方を一般化している。
論文 参考訳(メタデータ) (2020-06-29T21:06:52Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。