論文の概要: Computational Asymmetries in Robust Classification
- arxiv url: http://arxiv.org/abs/2306.14326v1
- Date: Sun, 25 Jun 2023 19:41:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 15:35:17.964571
- Title: Computational Asymmetries in Robust Classification
- Title(参考訳): ロバスト分類における計算非対称性
- Authors: Samuele Marro, Michele Lombardi
- Abstract要約: ReLUの攻撃は$mathitNP$-hardであり、トレーニング時の堅牢性は$Sigma2_P$-hardである(単一の例であっても)。
第二に、推論時ロバスト性証明はこの非対称性の影響を受けないことを示し、Counter-Attack (CA) という概念実証手法を導入する。
- 参考スコア(独自算出の注目度): 9.933826905715822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the context of adversarial robustness, we make three strongly related
contributions. First, we prove that while attacking ReLU classifiers is
$\mathit{NP}$-hard, ensuring their robustness at training time is
$\Sigma^2_P$-hard (even on a single example). This asymmetry provides a
rationale for the fact that robust classifications approaches are frequently
fooled in the literature. Second, we show that inference-time robustness
certificates are not affected by this asymmetry, by introducing a
proof-of-concept approach named Counter-Attack (CA). Indeed, CA displays a
reversed asymmetry: running the defense is $\mathit{NP}$-hard, while attacking
it is $\Sigma_2^P$-hard. Finally, motivated by our previous result, we argue
that adversarial attacks can be used in the context of robustness
certification, and provide an empirical evaluation of their effectiveness. As a
byproduct of this process, we also release UG100, a benchmark dataset for
adversarial attacks.
- Abstract(参考訳): 敵対的堅牢性の文脈では、3つの強く関連する貢献を行う。
まず、relu分類器を攻撃することは$\mathit{np}$-hardであるが、トレーニング時のロバスト性を保証するのは$\sigma^2_p$-hardである。
この非対称性は、堅牢な分類アプローチが文学においてしばしば騙されるという事実の理論的根拠を与える。
第2に,この非対称性により,推論時ロバスト性証明は影響を受けないことを示し,Counter-Attack (CA) という概念実証手法を導入した。
実際、CA は逆非対称性を示す: 防御の実行は $\mathit{NP}$-hard であり、攻撃は $\Sigma_2^P$-hard である。
最後に,前回の結果に動機づけられ,ロバストネス認定の文脈で敵の攻撃が利用でき,その効果を実証的に評価できると主張している。
このプロセスの副産物として、敵攻撃のベンチマークデータセットであるUG100もリリースする。
関連論文リスト
- Enhancing Robust Representation in Adversarial Training: Alignment and
Exclusion Criteria [61.048842737581865]
対人訓練 (AT) は, 頑健な特徴の学習を省略し, 対人的頑健さの低下を招いた。
非対称な負のコントラストと逆の注意によって、頑健な表現を得るためのATの一般的なフレームワークを提案する。
3つのベンチマークデータセットの実証評価により,ATの堅牢性を大幅に向上し,最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2023-10-05T07:29:29Z) - Alternating Objectives Generates Stronger PGD-Based Adversarial Attacks [78.2700757742992]
Projected Gradient Descent (PGD) は、そのような敵を生成するための最も効果的で概念的にシンプルなアルゴリズムの1つである。
この主張を合成データの例で実験的に検証し、提案手法を25の$ell_infty$-robustモデルと3つのデータセットで評価した。
私たちの最強の敵攻撃は、AutoAttackアンサンブルのすべてのホワイトボックスコンポーネントより優れています。
論文 参考訳(メタデータ) (2022-12-15T17:44:31Z) - Randomized Smoothing under Attack: How Good is it in Pratice? [17.323638042215013]
まず、理論的証明と分類器に対する攻撃の実践のミスマッチを強調した。
次に,無作為な平滑化を防御として攻撃する。
我々の主な観察は、高い信頼性のロバスト性を得たり、ブラックボックス攻撃を打ち負かす際に、RSの設定に大きなミスマッチがあることである。
論文 参考訳(メタデータ) (2022-04-28T11:37:40Z) - A Framework for Verification of Wasserstein Adversarial Robustness [0.6554326244334867]
イメージに知覚不可能なノイズを加えることは、機械学習モデルの重大な誤分類につながる可能性がある。
本稿では,勾配降下をベースとした新たなワッサーシュタイン対向攻撃を提案する。
論文 参考訳(メタデータ) (2021-10-13T15:59:44Z) - Adversarially Robust Classifier with Covariate Shift Adaptation [25.39995678746662]
既存の敵の訓練されたモデルは通常、テスト例に対して互いに独立して推論を行う。
単純な適応バッチ正規化(BN)技術は、ランダムな摂動に対してこれらのモデルのロバスト性を大幅に向上させることができることを示す。
さらに,適応BN手法は,敵攻撃に対する性能を高めつつも,一般的な汚職に対する堅牢性を著しく向上させることを示した。
論文 参考訳(メタデータ) (2021-02-09T19:51:56Z) - Robustness, Privacy, and Generalization of Adversarial Training [84.38148845727446]
本稿では, 対人訓練におけるプライバシ・ロバスト性トレードオフと一般化・ロバスト性トレードオフの確立と定量化を行う。
我々は,差分プライバシの大きさが強固な強度と正の相関を持つ場合,敵対的トレーニングは$(varepsilon,delta)$-differentially privateであることが示される。
我々の一般化境界は、ディープラーニングにおいて大きなパラメータサイズに明示的に依存していない。
論文 参考訳(メタデータ) (2020-12-25T13:35:02Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z) - Are L2 adversarial examples intrinsically different? [14.77179227968466]
理論的解析により、本質的に逆例と正規入力を区別できる性質を解明する。
我々は,MNISTで最大99%,CIFARで89%,ImageNetサブセットで最大87%の分類精度を,$L$攻撃に対して達成した。
論文 参考訳(メタデータ) (2020-02-28T03:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。