論文の概要: AttackBench: Evaluating Gradient-based Attacks for Adversarial Examples
- arxiv url: http://arxiv.org/abs/2404.19460v2
- Date: Thu, 03 Oct 2024 07:07:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-04 17:52:55.069609
- Title: AttackBench: Evaluating Gradient-based Attacks for Adversarial Examples
- Title(参考訳): AttackBench: 敵の例に対するグラディエントベースのアタックの評価
- Authors: Antonio Emanuele Cinà, Jérôme Rony, Maura Pintor, Luca Demetrio, Ambra Demontis, Battista Biggio, Ismail Ben Ayed, Fabio Roli,
- Abstract要約: アドリシャルな例は、通常、勾配ベースの攻撃に最適化される。
それぞれ異なる実験装置を用いて前任者を上回る性能を発揮する。
これは過度に最適化され、偏見のある評価を提供する。
- 参考スコア(独自算出の注目度): 26.37278338032268
- License:
- Abstract: Adversarial examples are typically optimized with gradient-based attacks. While novel attacks are continuously proposed, each is shown to outperform its predecessors using different experimental setups, hyperparameter settings, and number of forward and backward calls to the target models. This provides overly-optimistic and even biased evaluations that may unfairly favor one particular attack over the others. In this work, we aim to overcome these limitations by proposing AttackBench, i.e., the first evaluation framework that enables a fair comparison among different attacks. To this end, we first propose a categorization of gradient-based attacks, identifying their main components and differences. We then introduce our framework, which evaluates their effectiveness and efficiency. We measure these characteristics by (i) defining an optimality metric that quantifies how close an attack is to the optimal solution, and (ii) limiting the number of forward and backward queries to the model, such that all attacks are compared within a given maximum query budget. Our extensive experimental analysis compares more than $100$ attack implementations with a total of over $800$ different configurations against CIFAR-10 and ImageNet models, highlighting that only very few attacks outperform all the competing approaches. Within this analysis, we shed light on several implementation issues that prevent many attacks from finding better solutions or running at all. We release AttackBench as a publicly-available benchmark, aiming to continuously update it to include and evaluate novel gradient-based attacks for optimizing adversarial examples.
- Abstract(参考訳): 逆例は一般的に勾配ベースの攻撃に最適化される。
新たな攻撃が継続的に提案されている一方で、各攻撃は、異なる実験設定、ハイパーパラメータ設定、ターゲットモデルに対する前方および後方呼び出しの数を用いて、前者よりも優れていることが示されている。
これは過度に最適化され、偏見のある評価を提供することで、ある特定の攻撃が他の攻撃に対して不公平に有利になる可能性がある。
本研究は,アタックベンチ(AttackBench)を提案することで,これらの制限を克服することを目的としている。
この目的のために、我々はまず勾配に基づく攻撃の分類を提案し、その主な構成要素と相違点を特定する。
次に、その有効性と効率を評価するフレームワークを紹介します。
これらの特性を計測する
一 攻撃が最適解にどの程度近いかを定量化する最適度計量を定義すること。
(ii) 与えられた最大クエリ予算内で全ての攻撃が比較されるように、前方および後方クエリの数をモデルに制限する。
我々の大規模な実験分析では、CIFAR-10とImageNetモデルに対して合計800ドル以上の異なる設定を持つ100ドル以上のアタック実装を比較しており、競合するアプローチをはるかに上回る攻撃はごくわずかである。
この分析では、多くの攻撃によるより良いソリューションの発見や実行を妨げているいくつかの実装上の問題に光を当てました。
我々は、AttackBenchを公開可能なベンチマークとしてリリースし、敵の例を最適化するための新しい勾配ベースの攻撃を含むように継続的に更新し、評価することを目的としている。
関連論文リスト
- Adversarial Attack Based on Prediction-Correction [8.467466998915018]
ディープニューラルネットワーク(DNN)は、元の例に小さな摂動を加えることで得られる敵の例に対して脆弱である。
本稿では,新たな予測補正(PC)に基づく対角攻撃を提案する。
提案したPCベースの攻撃では、予測された例を最初に生成するために既存の攻撃を選択し、予測された例と現在の例を組み合わせて追加の摂動を決定する。
論文 参考訳(メタデータ) (2023-06-02T03:11:32Z) - GLOW: Global Layout Aware Attacks for Object Detection [27.46902978168904]
敵攻撃は、予測器が誤った結果を出力するような摂動画像を狙う。
本稿では,グローバルなレイアウト認識型敵攻撃を発生させることにより,様々な攻撃要求に対処するアプローチを提案する。
実験では,複数種類の攻撃要求を設計し,MS検証セット上でのアイデアの検証を行う。
論文 参考訳(メタデータ) (2023-02-27T22:01:34Z) - MultiRobustBench: Benchmarking Robustness Against Multiple Attacks [86.70417016955459]
機械学習(ML)モデルに対するマルチアタックを検討するための,最初の統一フレームワークを提案する。
我々のフレームワークは、テストタイムの敵について異なるレベルの学習者の知識をモデル化することができる。
9種類の攻撃に対して16種類の防御モデルの有効性を評価した。
論文 参考訳(メタデータ) (2023-02-21T20:26:39Z) - Alternating Objectives Generates Stronger PGD-Based Adversarial Attacks [78.2700757742992]
Projected Gradient Descent (PGD) は、そのような敵を生成するための最も効果的で概念的にシンプルなアルゴリズムの1つである。
この主張を合成データの例で実験的に検証し、提案手法を25の$ell_infty$-robustモデルと3つのデータセットで評価した。
私たちの最強の敵攻撃は、AutoAttackアンサンブルのすべてのホワイトボックスコンポーネントより優れています。
論文 参考訳(メタデータ) (2022-12-15T17:44:31Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Query-Efficient and Scalable Black-Box Adversarial Attacks on Discrete
Sequential Data via Bayesian Optimization [10.246596695310176]
ブラックボックス設定における離散的な逐次データに基づくモデルに対する敵攻撃の問題に焦点をあてる。
我々はベイジアン最適化を用いたクエリ効率の良いブラックボックス攻撃を提案し、重要な位置を動的に計算する。
そこで我々は,摂動サイズを小さくした逆例を求めるポスト最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-17T06:11:36Z) - Practical Evaluation of Adversarial Robustness via Adaptive Auto Attack [96.50202709922698]
実用的な評価手法は、便利な(パラメータフリー)、効率的な(イテレーションの少ない)、信頼性を持つべきである。
本稿では,パラメータフリーな適応オートアタック (A$3$) 評価手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T04:53:54Z) - Stochastic Variance Reduced Ensemble Adversarial Attack for Boosting the
Adversarial Transferability [20.255708227671573]
ブラックボックスの敵攻撃は、あるモデルから別のモデルに転送することができる。
本研究では,分散縮小アンサンブル攻撃と呼ばれる新しいアンサンブル攻撃法を提案する。
実験結果から,提案手法は既存のアンサンブル攻撃を著しく上回り,対向移動性を向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-11-21T06:33:27Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。