論文の概要: Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks
- arxiv url: http://arxiv.org/abs/2003.01690v2
- Date: Tue, 4 Aug 2020 18:31:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 21:51:29.074876
- Title: Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks
- Title(参考訳): 多様なパラメータフリーアタックのアンサンブルによる対向ロバスト性の評価
- Authors: Francesco Croce, Matthias Hein
- Abstract要約: 本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
- 参考スコア(独自算出の注目度): 65.20660287833537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of defense strategies against adversarial attacks has significantly
grown over the last years, but progress is hampered as the evaluation of
adversarial defenses is often insufficient and thus gives a wrong impression of
robustness. Many promising defenses could be broken later on, making it
difficult to identify the state-of-the-art. Frequent pitfalls in the evaluation
are improper tuning of hyperparameters of the attacks, gradient obfuscation or
masking. In this paper we first propose two extensions of the PGD-attack
overcoming failures due to suboptimal step size and problems of the objective
function. We then combine our novel attacks with two complementary existing
ones to form a parameter-free, computationally affordable and user-independent
ensemble of attacks to test adversarial robustness. We apply our ensemble to
over 50 models from papers published at recent top machine learning and
computer vision venues. In all except one of the cases we achieve lower robust
test accuracy than reported in these papers, often by more than $10\%$,
identifying several broken defenses.
- Abstract(参考訳): 敵意攻撃に対する防衛戦略の分野は近年大きく成長してきたが、敵意攻撃の評価が不十分な場合が多く、強固さの誤った印象を与えるため、進歩は妨げられている。
多くの有望な防御は後に破られる可能性があり、最新技術を特定するのは難しい。
評価における落とし穴は、攻撃のハイパーパラメータの不適切なチューニング、勾配難読化、マスキングである。
本稿ではまず,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
次に,新たな攻撃を2つの補完的既存攻撃と組み合わせることで,パラメータフリーで計算可能で,ユーザに依存しない攻撃のアンサンブルを形成し,対向ロバスト性をテストする。
最近のトップ機械学習とコンピュータビジョンの会場で発表された論文から、50以上のモデルにアンサンブルを適用した。
そのうちの1つを除いて、これらの論文で報告されたよりもロバストなテスト精度が低く、しばしば10\%以上の費用で、いくつかの壊れた防御を特定できる。
関連論文リスト
- Enhancing the Antidote: Improved Pointwise Certifications against
Poisoning Attacks [32.63920797751968]
毒殺攻撃は、トレーニングコーパスに小さな変更を加えることで、モデル行動に不当に影響を及ぼす可能性がある。
限られた数のトレーニングサンプルを修正した敵攻撃に対して,サンプルの堅牢性を保証することを可能とする。
論文 参考訳(メタデータ) (2023-08-15T03:46:41Z) - MultiRobustBench: Benchmarking Robustness Against Multiple Attacks [86.70417016955459]
機械学習(ML)モデルに対するマルチアタックを検討するための,最初の統一フレームワークを提案する。
我々のフレームワークは、テストタイムの敵について異なるレベルの学習者の知識をモデル化することができる。
9種類の攻撃に対して16種類の防御モデルの有効性を評価した。
論文 参考訳(メタデータ) (2023-02-21T20:26:39Z) - Rethinking Textual Adversarial Defense for Pre-trained Language Models [79.18455635071817]
文献レビューでは、事前訓練された言語モデル(PrLM)が敵の攻撃に弱いことが示されている。
本稿では、現在の敵攻撃アプローチにより、より自然で知覚不能な敵の例を生成するための新しい指標(異常の度合い)を提案する。
我々は,我々のユニバーサル・ディフェンス・フレームワークが,他の特定のディフェンスと同等あるいはそれ以上のアフターアタック・ディフェンスの精度を達成することを示す。
論文 参考訳(メタデータ) (2022-07-21T07:51:45Z) - Increasing Confidence in Adversarial Robustness Evaluations [53.2174171468716]
本稿では,弱い攻撃を識別し,防御評価を弱めるテストを提案する。
本テストでは,各サンプルに対する逆例の存在を保証するため,ニューラルネットワークをわずかに修正した。
これまでに公表された13の防衛のうち、11の防衛について、元の防衛評価は我々のテストに失敗し、これらの防衛を破る強力な攻撃はそれを通過する。
論文 参考訳(メタデータ) (2022-06-28T13:28:13Z) - Scale-Invariant Adversarial Attack for Evaluating and Enhancing
Adversarial Defenses [22.531976474053057]
プロジェクテッド・グラディエント・Descent (PGD) 攻撃は最も成功した敵攻撃の1つであることが示されている。
我々は, 対向層の特徴とソフトマックス層の重みの角度を利用して, 対向層の生成を誘導するスケール不変逆襲 (SI-PGD) を提案する。
論文 参考訳(メタデータ) (2022-01-29T08:40:53Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Attack as Defense: Characterizing Adversarial Examples using Robustness [9.020456982421958]
本稿では,攻撃を防御(A2D)と呼ぶ新しい防御フレームワークを提案する。
A2Dは、堅牢性評価のために入力を攻撃するコストを使用し、これらの堅牢度の低い例を逆数と識別します。
MNIST、CIFAR10、ImageNetの実験結果は、A2Dが最近の有望なアプローチよりも効果的であることを示している。
論文 参考訳(メタデータ) (2021-03-13T06:29:13Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。