論文の概要: Mind the box: $l_1$-APGD for sparse adversarial attacks on image
classifiers
- arxiv url: http://arxiv.org/abs/2103.01208v3
- Date: Fri, 24 Nov 2023 15:41:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 18:14:50.332116
- Title: Mind the box: $l_1$-APGD for sparse adversarial attacks on image
classifiers
- Title(参考訳): 注意:$l_1$-apgd イメージ分類器に対するスパースな敵の攻撃
- Authors: Francesco Croce, Matthias Hein
- Abstract要約: 我々は、この効果的な脅威モデルのための最も急勾配ステップの空間性について検討する。
本稿では,小予算の反復であっても高い有効性を有するPGDの適応形式を提案する。
- 参考スコア(独自算出の注目度): 61.46999584579775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that when taking into account also the image domain $[0,1]^d$,
established $l_1$-projected gradient descent (PGD) attacks are suboptimal as
they do not consider that the effective threat model is the intersection of the
$l_1$-ball and $[0,1]^d$. We study the expected sparsity of the steepest
descent step for this effective threat model and show that the exact projection
onto this set is computationally feasible and yields better performance.
Moreover, we propose an adaptive form of PGD which is highly effective even
with a small budget of iterations. Our resulting $l_1$-APGD is a strong
white-box attack showing that prior works overestimated their $l_1$-robustness.
Using $l_1$-APGD for adversarial training we get a robust classifier with SOTA
$l_1$-robustness. Finally, we combine $l_1$-APGD and an adaptation of the
Square Attack to $l_1$ into $l_1$-AutoAttack, an ensemble of attacks which
reliably assesses adversarial robustness for the threat model of $l_1$-ball
intersected with $[0,1]^d$.
- Abstract(参考訳): また、画像領域の$[0,1]^d$も考慮すると、$[0,1]^d$と$[0,1]^d$の交差を有効脅威モデルとみなさないため、確立された$l_1$-投射勾配降下(PGD)攻撃は最適以下であることを示す。
この効果的な脅威モデルにおける最急降下ステップの空間性について検討し、この集合への正確な投影が計算可能であり、より良い性能が得られることを示す。
さらに,小予算の反復であっても高い有効性を有する適応型PGDを提案する。
結果の$l_1$-APGDは強いホワイトボックス攻撃であり、以前の作業が $l_1$-robustness を過大評価していることを示している。
敵の訓練に$l_1$-APGDを使用すると、SOTA $l_1$-robustnessで堅牢な分類器が得られる。
最後に、$l_1$-apgd と square attack を$l_1$ から $l_1$-autoattack に適応させることで、$[0,1]^d$ と交差する $l_1$-ball の脅威モデルの敵対的ロバスト性を確実に評価する。
関連論文リスト
- Stochastic Bandits Robust to Adversarial Attacks [33.278131584647745]
本稿では,敵攻撃に対して頑健なマルチアームバンディットアルゴリズムについて検討する。
我々は、攻撃予算の知識の有無に関わらず、このモデルの2つのケースを調査する。
我々は、加法的あるいは乗法的な$C$依存項を持つ後悔境界を持つ2種類のアルゴリズムを考案する。
論文 参考訳(メタデータ) (2024-08-16T17:41:35Z) - $σ$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial Examples [14.17412770504598]
入力摂動の作成には$ell_infty$-normの制約が使用できることを示す。
我々は $sigma$-norm と呼ばれる新しい $ell_infty$-norm 攻撃を提案する。
これは、成功、サイズ、効率の点で競合するすべての敵攻撃を上回っます。
論文 参考訳(メタデータ) (2024-02-02T20:08:11Z) - Contextual Combinatorial Bandits with Probabilistically Triggered Arms [55.9237004478033]
確率的に誘発される腕(C$2$MAB-T)を様々な滑らかさ条件下で検討した。
トリガー変調 (TPM) 条件の下では、C$2$-UC-Tアルゴリズムを考案し、後悔すべき$tildeO(dsqrtT)$を導出する。
論文 参考訳(メタデータ) (2023-03-30T02:51:00Z) - Class-Conditioned Transformation for Enhanced Robust Image Classification [19.738635819545554]
本稿では,Adrial-versa-Trained (AT)モデルを強化する新しいテスト時間脅威モデルを提案する。
コンディショナル・イメージ・トランスフォーメーションとディスタンス・ベース・予測(CODIP)を用いて動作する。
提案手法は,様々なモデル,ATメソッド,データセット,アタックタイプに関する広範な実験を通じて,最先端の成果を実証する。
論文 参考訳(メタデータ) (2023-03-27T17:28:20Z) - Adversarial robustness against multiple $l_p$-threat models at the price
of one and how to quickly fine-tune robust models to another threat model [79.05253587566197]
対向的堅牢性を実現するために, 対向的トレーニング (AT) を単一$l_p$-threatモデルで行うことが広く議論されている。
本稿では,$l_p$-threatモデルの結合に対する対角的ロバスト性を実現するための,シンプルで効率的なトレーニング手法を開発する。
論文 参考訳(メタデータ) (2021-05-26T12:20:47Z) - Improving Robustness and Generality of NLP Models Using Disentangled
Representations [62.08794500431367]
スーパービジョンニューラルネットワークはまず入力$x$を単一の表現$z$にマップし、次に出力ラベル$y$にマッピングする。
本研究では,非交叉表現学習の観点から,NLPモデルの堅牢性と汎用性を改善する手法を提案する。
提案した基準でトレーニングしたモデルは、広範囲の教師付き学習タスクにおいて、より堅牢性とドメイン適応性を向上することを示す。
論文 参考訳(メタデータ) (2020-09-21T02:48:46Z) - Sharp Statistical Guarantees for Adversarially Robust Gaussian
Classification [54.22421582955454]
逆向きに頑健な分類の過剰リスクに対する最適ミニマックス保証の最初の結果を提供する。
結果はAdvSNR(Adversarial Signal-to-Noise Ratio)の項で述べられており、これは標準的な線形分類と逆数設定との類似の考え方を一般化している。
論文 参考訳(メタデータ) (2020-06-29T21:06:52Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。