論文の概要: Randomness in ML Defenses Helps Persistent Attackers and Hinders
Evaluators
- arxiv url: http://arxiv.org/abs/2302.13464v1
- Date: Mon, 27 Feb 2023 01:33:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 16:58:45.243896
- Title: Randomness in ML Defenses Helps Persistent Attackers and Hinders
Evaluators
- Title(参考訳): MLディフェンスのランダム性は、永続的な攻撃者や障害評価者を助ける
- Authors: Keane Lucas, Matthew Jagielski, Florian Tram\`er, Lujo Bauer, Nicholas
Carlini
- Abstract要約: 堅牢なMLディフェンスを設計することがますます重要になっている。
近年の研究では、当初最先端の攻撃に抵抗する多くの防衛は、適応的な敵によって破壊される可能性があることが判明している。
我々は、防御設計をシンプルにし、ホワイトボックスの防御は可能な限りランダム性を損なうべきだと論じる。
- 参考スコア(独自算出の注目度): 49.52538232104449
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is becoming increasingly imperative to design robust ML defenses. However,
recent work has found that many defenses that initially resist state-of-the-art
attacks can be broken by an adaptive adversary. In this work we take steps to
simplify the design of defenses and argue that white-box defenses should eschew
randomness when possible. We begin by illustrating a new issue with the
deployment of randomized defenses that reduces their security compared to their
deterministic counterparts. We then provide evidence that making defenses
deterministic simplifies robustness evaluation, without reducing the
effectiveness of a truly robust defense. Finally, we introduce a new defense
evaluation framework that leverages a defense's deterministic nature to better
evaluate its adversarial robustness.
- Abstract(参考訳): 堅牢なMLディフェンスの設計はますます不可欠になりつつある。
しかし、最近の研究によると、当初は最先端の攻撃に抵抗する多くの防衛は適応的な敵によって破壊される可能性がある。
この研究では、防御設計を単純化するステップを採り、ホワイトボックスの防御は可能な限りランダム性を高めるべきだと論じる。
まず、ランダム化された防御を配置することで、決定論的防衛に比べてセキュリティを低下させる、という新しい問題を考察する。
次に,防衛を決定論的に行うことは,真の堅牢な防衛の有効性を低下させることなく,ロバスト性評価を単純化することを示す。
最後に,防衛の決定論的性質を活用した新たな防衛評価フレームワークを導入し,その敵意の頑健性を評価する。
関連論文リスト
- Position: Towards Resilience Against Adversarial Examples [42.09231029292568]
我々は、敵の弾力性の定義と、敵の弾力性のある防御を設計する方法について概観する。
次に, 対向弾性のサブプロブレムを導入し, 連続適応ロバストネス(continuousal adapt robustness)と呼ぶ。
本研究では, 連続適応ロバストネスと, マルチアタックロバストネスと予期せぬアタックロバストネスの関連性を実証する。
論文 参考訳(メタデータ) (2024-05-02T14:58:44Z) - Hindering Adversarial Attacks with Multiple Encrypted Patch Embeddings [13.604830818397629]
効率性とロバスト性の両方に着目したキーベースの新たな防衛手法を提案する。
我々は,(1)効率的なトレーニングと(2)任意ランダム化という2つの大きな改善をともなう,以前の防衛基盤を構築した。
実験はImageNetデータセット上で行われ、提案された防御は最先端の攻撃兵器に対して評価された。
論文 参考訳(メタデータ) (2023-09-04T14:08:34Z) - Increasing Confidence in Adversarial Robustness Evaluations [53.2174171468716]
本稿では,弱い攻撃を識別し,防御評価を弱めるテストを提案する。
本テストでは,各サンプルに対する逆例の存在を保証するため,ニューラルネットワークをわずかに修正した。
これまでに公表された13の防衛のうち、11の防衛について、元の防衛評価は我々のテストに失敗し、これらの防衛を破る強力な攻撃はそれを通過する。
論文 参考訳(メタデータ) (2022-06-28T13:28:13Z) - Evaluating the Adversarial Robustness of Adaptive Test-time Defenses [60.55448652445904]
このような適応型テストタイムディフェンスを分類し、その潜在的なメリットと欠点を説明します。
残念なことに、適切な評価を行うと、静的モデルが大幅に改善されることはない。
推論コストを同時に増加しながら、基盤となる静的モデルを弱めるものもあります。
論文 参考訳(メタデータ) (2022-02-28T12:11:40Z) - Can Adversarial Training Be Manipulated By Non-Robust Features? [64.73107315313251]
もともとテストタイムの敵の例に抵抗するために設計された対人訓練は、トレーニング時間アベイラビリティーアタックの緩和に有望であることが示されている。
我々は、トレーニングデータをわずかに摂動させることで、堅牢な可用性を阻害することを目的とした、安定性攻撃と呼ばれる新しい脅威モデルを特定する。
この脅威の下では、従来の防衛予算$epsilon$による敵の訓練が、単純な統計的条件下でテストロバスト性を提供するのに確実に失敗することを発見した。
論文 参考訳(メタデータ) (2022-01-31T16:25:25Z) - MAD-VAE: Manifold Awareness Defense Variational Autoencoder [0.0]
本稿では,防衛モデルの堅牢性を改善するためのいくつかの手法を紹介する。
MNISTデータセットに関する広範な実験により,本アルゴリズムの有効性を実証した。
また,既存の逆潜時空間攻撃の適用可能性についても論じる。
論文 参考訳(メタデータ) (2020-10-31T09:04:25Z) - A Game Theoretic Analysis of Additive Adversarial Attacks and Defenses [4.94950858749529]
均衡状態にある攻撃や防御を研究するためのゲーム理論の枠組みを提案する。
データ生成分布から有限個のサンプルからこの平衡防衛を近似する方法を示す。
論文 参考訳(メタデータ) (2020-09-14T15:51:15Z) - Harnessing adversarial examples with a surprisingly simple defense [47.64219291655723]
敵の例に対抗して、非常に簡単な方法を紹介します。
基本的な考え方は、テスト時にReLU関数の傾きを上げることである。
MNISTとCIFAR-10データセットによる実験では、提案された防御の有効性が示されている。
論文 参考訳(メタデータ) (2020-04-26T03:09:42Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。