論文の概要: $\sigma$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial
Examples
- arxiv url: http://arxiv.org/abs/2402.01879v1
- Date: Fri, 2 Feb 2024 20:08:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 23:40:20.051314
- Title: $\sigma$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial
Examples
- Title(参考訳): $\sigma$-zero: $\ell_0$-norm の勾配に基づく最適化
- Authors: Antonio Emanuele Cin\`a, Francesco Villani, Maura Pintor, Lea
Sch\"onherr, Battista Biggio, and Marcello Pelillo
- Abstract要約: Sigma-zeroは、時間を要するハイパーセルチューニングを必要とせず、最小$ell_infty$-normの例を見つけ、成功、サイズ、堅牢性の点で競合するすべての攻撃を上回ります。
- 参考スコア(独自算出の注目度): 12.154652744262476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluating the adversarial robustness of deep networks to gradient-based
attacks is challenging. While most attacks consider $\ell_2$- and
$\ell_\infty$-norm constraints to craft input perturbations, only a few
investigate sparse $\ell_1$- and $\ell_0$-norm attacks. In particular,
$\ell_0$-norm attacks remain the least studied due to the inherent complexity
of optimizing over a non-convex and non-differentiable constraint. However,
evaluating adversarial robustness under these attacks could reveal weaknesses
otherwise left untested with more conventional $\ell_2$- and $\ell_\infty$-norm
attacks. In this work, we propose a novel $\ell_0$-norm attack, called
$\sigma$-zero, which leverages an ad hoc differentiable approximation of the
$\ell_0$ norm to facilitate gradient-based optimization, and an adaptive
projection operator to dynamically adjust the trade-off between loss
minimization and perturbation sparsity. Extensive evaluations using MNIST,
CIFAR10, and ImageNet datasets, involving robust and non-robust models, show
that $\sigma$-zero finds minimum $\ell_0$-norm adversarial examples without
requiring any time-consuming hyperparameter tuning, and that it outperforms all
competing sparse attacks in terms of success rate, perturbation size, and
scalability.
- Abstract(参考訳): 勾配に基づく攻撃に対するディープネットワークの敵対的ロバスト性の評価は困難である。
ほとんどの攻撃は$\ell_2$- と $\ell_\infty$-norm の制約を入力の摂動に対して考慮しているが、sparse $\ell_1$- と $\ell_0$-norm 攻撃を調査するのはごくわずかである。
特に$\ell_0$-normアタックは、非凸かつ微分不可能な制約を最適化する固有の複雑さのために研究されていない。
しかし、これらの攻撃の下での敵対的堅牢性の評価は、より従来的な$\ell_2$-および$\ell_\infty$-norm攻撃でテストされていない弱点を明らかにする可能性がある。
本研究では,$\ell_0$ノルム攻撃($\sigma$-zero)を提案する。これは$\ell_0$ノルムのアドホック微分可能な近似を利用して勾配に基づく最適化を行い,損失最小化と摂動スパーシティのトレードオフを動的に調整する適応射影演算子を提案する。
MNIST、CIFAR10、ImageNetデータセットを使用した大規模な評価では、$\sigma$-zeroは、時間を要するハイパーパラメータチューニングを必要とせずに最小の$\ell_0$-normの逆例を見つけ、成功率、摂動サイズ、スケーラビリティの点で競合するすべてのスパース攻撃を上回ります。
関連論文リスト
- $L_p$-norm Distortion-Efficient Adversarial Attack [13.03797700146213]
現在の攻撃法は、$L$-norm、$L$-norm、$L_infty$-normの歪みの1つしか考慮していない。
我々は、最小の$L$-normを所有するだけでなく、$L_infty$-normの歪みを著しく低減する、新しい$L_p$-norm歪み効率逆攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-03T14:00:33Z) - GSE: Group-wise Sparse and Explainable Adversarial Attacks [20.068273625719943]
スパース敵は、最小ピクセルの摂動によって、愚かなディープニューラルネットワーク(DNN)を攻撃します。
近年の取り組みは、この標準を核グループノルムのようなスパーシティ正則化器に置き換えて、グループワイドの敵攻撃を作らせている。
本稿では,意味的意味のある画像内のグループワイドアタックを生成する2相アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-29T08:26:18Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack [92.94132883915876]
最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
対向騒音に対するロバスト性を改善するための多くの防御法が提案されている。
敵の強靭さを評価することは 極めて困難であることが分かりました
論文 参考訳(メタデータ) (2021-06-03T01:45:48Z) - Fast Minimum-norm Adversarial Attacks through Adaptive Norm Constraints [29.227720674726413]
異なる$ell_p$-norm摂動モデルで動作する高速最小ノルム(FMN)攻撃を提案する。
実験の結果、FMNは収束速度と時間において既存の攻撃よりも著しく優れていた。
論文 参考訳(メタデータ) (2021-02-25T12:56:26Z) - Understanding Frank-Wolfe Adversarial Training [1.2183405753834557]
Adversarial Training(AT)は、最悪のケースの損失を最小限に抑えるために、堅牢な最適化問題を解決する技術です。
frank-wolfe adversarial trainingアプローチが提示され、pgd-atのような競争力レベルの堅牢性を提供する。
論文 参考訳(メタデータ) (2020-12-22T21:36:52Z) - Towards Defending Multiple $\ell_p$-norm Bounded Adversarial
Perturbations via Gated Batch Normalization [120.99395850108422]
既存の敵防衛は、個々の摂動に対するモデル堅牢性を改善するのが一般的である。
最近の手法では、複数の$ell_p$球における敵攻撃に対するモデルロバスト性を改善するが、各摂動型に対するそれらの性能は、まだ十分ではない。
我々は,複数の$ell_pの有界摂動を守るために,摂動不変予測器を逆向きに訓練するGated Batch Normalization (GBN)を提案する。
論文 参考訳(メタデータ) (2020-12-03T02:26:01Z) - Sharp Statistical Guarantees for Adversarially Robust Gaussian
Classification [54.22421582955454]
逆向きに頑健な分類の過剰リスクに対する最適ミニマックス保証の最初の結果を提供する。
結果はAdvSNR(Adversarial Signal-to-Noise Ratio)の項で述べられており、これは標準的な線形分類と逆数設定との類似の考え方を一般化している。
論文 参考訳(メタデータ) (2020-06-29T21:06:52Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。