論文の概要: Increasing Confidence in Adversarial Robustness Evaluations
- arxiv url: http://arxiv.org/abs/2206.13991v1
- Date: Tue, 28 Jun 2022 13:28:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 13:04:07.095039
- Title: Increasing Confidence in Adversarial Robustness Evaluations
- Title(参考訳): 対向ロバスト性評価の信頼性向上
- Authors: Roland S. Zimmermann, Wieland Brendel, Florian Tramer, Nicholas
Carlini
- Abstract要約: 本稿では,弱い攻撃を識別し,防御評価を弱めるテストを提案する。
本テストでは,各サンプルに対する逆例の存在を保証するため,ニューラルネットワークをわずかに修正した。
これまでに公表された13の防衛のうち、11の防衛について、元の防衛評価は我々のテストに失敗し、これらの防衛を破る強力な攻撃はそれを通過する。
- 参考スコア(独自算出の注目度): 53.2174171468716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hundreds of defenses have been proposed to make deep neural networks robust
against minimal (adversarial) input perturbations. However, only a handful of
these defenses held up their claims because correctly evaluating robustness is
extremely challenging: Weak attacks often fail to find adversarial examples
even if they unknowingly exist, thereby making a vulnerable network look
robust. In this paper, we propose a test to identify weak attacks, and thus
weak defense evaluations. Our test slightly modifies a neural network to
guarantee the existence of an adversarial example for every sample.
Consequentially, any correct attack must succeed in breaking this modified
network. For eleven out of thirteen previously-published defenses, the original
evaluation of the defense fails our test, while stronger attacks that break
these defenses pass it. We hope that attack unit tests - such as ours - will be
a major component in future robustness evaluations and increase confidence in
an empirical field that is currently riddled with skepticism.
- Abstract(参考訳): 深層ニューラルネットワークを最小(逆)入力摂動に対して堅牢にするために、何百もの防御が提案されている。
しかし、ロバスト性を正確に評価することは極めて困難である。弱い攻撃は、知らない間にも敵の例を見つけられず、脆弱なネットワークを堅牢に見せる。
本稿では,弱い攻撃を識別するテストを提案し,防御力の弱い評価を行う。
本テストでは,各サンプルに対する逆例の存在を保証するため,ニューラルネットワークをわずかに修正した。
結果的に、正しい攻撃は、この修正されたネットワークを壊すのに成功しなければなりません。
以前に公表された13の防御のうち11か所において、防御の当初の評価はテストに失敗し、これらの防御を破る強力な攻撃が通過する。
我々のような攻撃単体テストは、将来の堅牢性評価において重要な要素となり、現在懐疑論が取り除かれている経験的分野への信頼を高めることを願っている。
関連論文リスト
- Closing the Gap: Achieving Better Accuracy-Robustness Tradeoffs against Query-Based Attacks [1.54994260281059]
クエリベースの攻撃を緩和する上で、ロバスト性と精度の確固たるトレードオフを、テスト時に効率的に確立する方法を示す。
我々のアプローチは訓練とは無関係であり、理論に支えられている。
論文 参考訳(メタデータ) (2023-12-15T17:02:19Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Randomness in ML Defenses Helps Persistent Attackers and Hinders
Evaluators [49.52538232104449]
堅牢なMLディフェンスを設計することがますます重要になっている。
近年の研究では、当初最先端の攻撃に抵抗する多くの防衛は、適応的な敵によって破壊される可能性があることが判明している。
我々は、防御設計をシンプルにし、ホワイトボックスの防御は可能な限りランダム性を損なうべきだと論じる。
論文 参考訳(メタデータ) (2023-02-27T01:33:31Z) - Can Adversarial Training Be Manipulated By Non-Robust Features? [64.73107315313251]
もともとテストタイムの敵の例に抵抗するために設計された対人訓練は、トレーニング時間アベイラビリティーアタックの緩和に有望であることが示されている。
我々は、トレーニングデータをわずかに摂動させることで、堅牢な可用性を阻害することを目的とした、安定性攻撃と呼ばれる新しい脅威モデルを特定する。
この脅威の下では、従来の防衛予算$epsilon$による敵の訓練が、単純な統計的条件下でテストロバスト性を提供するのに確実に失敗することを発見した。
論文 参考訳(メタデータ) (2022-01-31T16:25:25Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。