論文の概要: Mind the box: $l_1$-APGD for sparse adversarial attacks on image
classifiers
- arxiv url: http://arxiv.org/abs/2103.01208v3
- Date: Fri, 24 Nov 2023 15:41:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 18:14:50.332116
- Title: Mind the box: $l_1$-APGD for sparse adversarial attacks on image
classifiers
- Title(参考訳): 注意:$l_1$-apgd イメージ分類器に対するスパースな敵の攻撃
- Authors: Francesco Croce, Matthias Hein
- Abstract要約: 我々は、この効果的な脅威モデルのための最も急勾配ステップの空間性について検討する。
本稿では,小予算の反復であっても高い有効性を有するPGDの適応形式を提案する。
- 参考スコア(独自算出の注目度): 61.46999584579775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that when taking into account also the image domain $[0,1]^d$,
established $l_1$-projected gradient descent (PGD) attacks are suboptimal as
they do not consider that the effective threat model is the intersection of the
$l_1$-ball and $[0,1]^d$. We study the expected sparsity of the steepest
descent step for this effective threat model and show that the exact projection
onto this set is computationally feasible and yields better performance.
Moreover, we propose an adaptive form of PGD which is highly effective even
with a small budget of iterations. Our resulting $l_1$-APGD is a strong
white-box attack showing that prior works overestimated their $l_1$-robustness.
Using $l_1$-APGD for adversarial training we get a robust classifier with SOTA
$l_1$-robustness. Finally, we combine $l_1$-APGD and an adaptation of the
Square Attack to $l_1$ into $l_1$-AutoAttack, an ensemble of attacks which
reliably assesses adversarial robustness for the threat model of $l_1$-ball
intersected with $[0,1]^d$.
- Abstract(参考訳): また、画像領域の$[0,1]^d$も考慮すると、$[0,1]^d$と$[0,1]^d$の交差を有効脅威モデルとみなさないため、確立された$l_1$-投射勾配降下(PGD)攻撃は最適以下であることを示す。
この効果的な脅威モデルにおける最急降下ステップの空間性について検討し、この集合への正確な投影が計算可能であり、より良い性能が得られることを示す。
さらに,小予算の反復であっても高い有効性を有する適応型PGDを提案する。
結果の$l_1$-APGDは強いホワイトボックス攻撃であり、以前の作業が $l_1$-robustness を過大評価していることを示している。
敵の訓練に$l_1$-APGDを使用すると、SOTA $l_1$-robustnessで堅牢な分類器が得られる。
最後に、$l_1$-apgd と square attack を$l_1$ から $l_1$-autoattack に適応させることで、$[0,1]^d$ と交差する $l_1$-ball の脅威モデルの敵対的ロバスト性を確実に評価する。
関連論文リスト
- Improved Algorithm for Adversarial Linear Mixture MDPs with Bandit
Feedback and Unknown Transition [71.33787410075577]
線形関数近似,未知遷移,および逆損失を用いた強化学習について検討した。
我々は高い確率で$widetildeO(dsqrtHS3K + sqrtHSAK)$ regretを実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-07T15:03:50Z) - RAMP: Boosting Adversarial Robustness Against Multiple $l_p$
Perturbations [4.70722607350087]
textbfRAMPは、頑健な微調整と全対角訓練の両方に容易に適応できることを示す。
スクラッチからトレーニングするために、 textbfRAMP は SOTA の結合精度を44.6% で、比較的良好な清潔さを ResNet-18 で AutoAttack に対して 811.2% で達成している。
論文 参考訳(メタデータ) (2024-02-09T23:29:54Z) - $\sigma$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial
Examples [12.154652744262476]
Sigma-zeroは、時間を要するハイパーセルチューニングを必要とせず、最小$ell_infty$-normの例を見つけ、成功、サイズ、堅牢性の点で競合するすべての攻撃を上回ります。
論文 参考訳(メタデータ) (2024-02-02T20:08:11Z) - Federated Linear Bandits with Finite Adversarial Actions [20.1041278044797]
我々は、M$のクライアントが中央サーバと通信し、線形文脈の帯域幅問題を解決するための連合線形帯域幅モデルについて検討する。
逆有限作用集合のユニークな問題に対処するため、FedSupLinUCBアルゴリズムを提案する。
我々は、FedSupLinUCBが$tildeO(sqrtd T)$の完全後悔を達成したことを証明している。
論文 参考訳(メタデータ) (2023-11-02T03:41:58Z) - Adversarial robustness against multiple $l_p$-threat models at the price
of one and how to quickly fine-tune robust models to another threat model [79.05253587566197]
対向的堅牢性を実現するために, 対向的トレーニング (AT) を単一$l_p$-threatモデルで行うことが広く議論されている。
本稿では,$l_p$-threatモデルの結合に対する対角的ロバスト性を実現するための,シンプルで効率的なトレーニング手法を開発する。
論文 参考訳(メタデータ) (2021-05-26T12:20:47Z) - Improving Robustness and Generality of NLP Models Using Disentangled
Representations [62.08794500431367]
スーパービジョンニューラルネットワークはまず入力$x$を単一の表現$z$にマップし、次に出力ラベル$y$にマッピングする。
本研究では,非交叉表現学習の観点から,NLPモデルの堅牢性と汎用性を改善する手法を提案する。
提案した基準でトレーニングしたモデルは、広範囲の教師付き学習タスクにおいて、より堅牢性とドメイン適応性を向上することを示す。
論文 参考訳(メタデータ) (2020-09-21T02:48:46Z) - Sharp Statistical Guarantees for Adversarially Robust Gaussian
Classification [54.22421582955454]
逆向きに頑健な分類の過剰リスクに対する最適ミニマックス保証の最初の結果を提供する。
結果はAdvSNR(Adversarial Signal-to-Noise Ratio)の項で述べられており、これは標準的な線形分類と逆数設定との類似の考え方を一般化している。
論文 参考訳(メタデータ) (2020-06-29T21:06:52Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。