論文の概要: QuadAttack: A Quadratic Programming Approach to Ordered Top-K Attacks
- arxiv url: http://arxiv.org/abs/2312.11510v1
- Date: Tue, 12 Dec 2023 05:08:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 13:24:51.354276
- Title: QuadAttack: A Quadratic Programming Approach to Ordered Top-K Attacks
- Title(参考訳): QuadAttack: 順序付きトップK攻撃に対する擬似プログラミングアプローチ
- Authors: Thomas Paniagua, Ryan Grainger, Tianfu Wu
- Abstract要約: ディープニューラルネットワーク(DNN)の敵対的脆弱性は広く知られ、広く懸念されている。
本稿は、攻撃的な最上位の$K$攻撃を学習することで、この懸念がはるかに深刻であることを示している。
- 参考スコア(独自算出の注目度): 8.826642352173035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The adversarial vulnerability of Deep Neural Networks (DNNs) has been
well-known and widely concerned, often under the context of learning top-$1$
attacks (e.g., fooling a DNN to classify a cat image as dog). This paper shows
that the concern is much more serious by learning significantly more aggressive
ordered top-$K$ clear-box~\footnote{ This is often referred to as
white/black-box attacks in the literature. We choose to adopt neutral
terminology, clear/opaque-box attacks in this paper, and omit the prefix
clear-box for simplicity.} targeted attacks proposed in Adversarial
Distillation. We propose a novel and rigorous quadratic programming (QP) method
of learning ordered top-$K$ attacks with low computing cost, dubbed as
\textbf{QuadAttac$K$}. Our QuadAttac$K$ directly solves the QP to satisfy the
attack constraint in the feature embedding space (i.e., the input space to the
final linear classifier), which thus exploits the semantics of the feature
embedding space (i.e., the principle of class coherence). With the optimized
feature embedding vector perturbation, it then computes the adversarial
perturbation in the data space via the vanilla one-step back-propagation. In
experiments, the proposed QuadAttac$K$ is tested in the ImageNet-1k
classification using ResNet-50, DenseNet-121, and Vision Transformers (ViT-B
and DEiT-S). It successfully pushes the boundary of successful ordered top-$K$
attacks from $K=10$ up to $K=20$ at a cheap budget ($1\times 60$) and further
improves attack success rates for $K=5$ for all tested models, while retaining
the performance for $K=1$.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の敵対的脆弱性はよく知られており、しばしば1ドル以上の攻撃(例えば、猫のイメージを犬として分類するためにDNNを騙す)を学ぶ文脈で広く懸念されている。
この論文は、よりアグレッシブに順序づけられたトップ-$k$ clear-box~\footnote{ これは文学においてホワイト/ブラックボックス攻撃と呼ばれることが多い。
本論文では,中立的用語,クリア/オプタクボックス攻撃を採用し,単純さのためにプレフィックスクリアボックスを省略する。
対外蒸留法で提案された標的攻撃。
計算コストの低い上位$K$攻撃を学習する,新しい,厳密な2次プログラミング(QP)手法を提案し,これを「textbf{QuadAttac$K$}」と呼ぶ。
我々のquadattac$k$はqpを直接解いて、特徴埋め込み空間(つまり、最終線形分類器への入力空間)における攻撃制約を満たすため、特徴埋め込み空間(すなわち、クラスコヒーレンス原理)の意味論を利用する。
最適化された特徴埋め込みベクトル摂動により、バニラワンステップバックプロパゲーションを介してデータ空間内の逆摂動を計算する。
実験では、提案されたQuadAttac$K$が、ResNet-50、DenseNet-121、ViT-B、DiT-Sを用いてImageNet-1k分類でテストされている。
安価な予算($\times 60$)で$k=10$から$k=20$まで成功し、すべてのテストモデルで$k=5$のアタック成功率をさらに向上させながら、$k=1$のパフォーマンスを維持した。
関連論文リスト
- $\sigma$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial
Examples [12.154652744262476]
Sigma-zeroは、時間を要するハイパーセルチューニングを必要とせず、最小$ell_infty$-normの例を見つけ、成功、サイズ、堅牢性の点で競合するすべての攻撃を上回ります。
論文 参考訳(メタデータ) (2024-02-02T20:08:11Z) - DeltaBound Attack: Efficient decision-based attack in low queries regime [0.4061135251278187]
ディープニューラルネットワークやその他の機械学習システムは、敵の攻撃に対して脆弱である。
我々は,標準値の摂動を許容するハードラベル設定において,新しい強力な攻撃を提案する。
DeltaBound攻撃は、現在の最先端攻撃よりも、時折、うまく動作することが分かりました。
論文 参考訳(メタデータ) (2022-10-01T14:45:18Z) - Adversarial Attacks on Gaussian Process Bandits [47.84198626686564]
本研究では,攻撃者の強さや事前情報に異なる仮定で様々な敵攻撃手法を提案する。
我々の目標は,GPバンディットに対する敵攻撃を理論的・実践的両面から理解することである。
GP帯域に対する敵攻撃は,攻撃予算が低い場合でも,$mathcalR_rmターゲットに対してアルゴリズムを強制的に強制することに成功した。
論文 参考訳(メタデータ) (2021-10-16T02:39:10Z) - EvoBA: An Evolution Strategy as a Strong Baseline forBlack-Box
Adversarial Attacks [6.338178373376446]
我々は、驚くほど単純な進化的探索戦略に基づいて、ブラックボックスの敵攻撃を提案する。
$textbfEvoBA$は、より複雑な最先端攻撃と一致した結果を通じて、効率性と有効性を示す。
論文 参考訳(メタデータ) (2021-07-12T21:55:01Z) - PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack [92.94132883915876]
最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
対向騒音に対するロバスト性を改善するための多くの防御法が提案されている。
敵の強靭さを評価することは 極めて困難であることが分かりました
論文 参考訳(メタデータ) (2021-06-03T01:45:48Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Almost Tight L0-norm Certified Robustness of Top-k Predictions against
Adversarial Perturbations [78.23408201652984]
トップk予測は、マシンラーニング・アズ・ア・サービス、レコメンダ・システム、Web検索など、多くの現実世界のアプリケーションで使用されている。
我々の研究はランダム化平滑化に基づいており、入力をランダム化することで、証明可能なロバストな分類器を構築する。
例えば、攻撃者がテスト画像の5ピクセルを任意に摂動できる場合に、ImageNet上で69.2%の認定トップ3精度を達成する分類器を構築することができる。
論文 参考訳(メタデータ) (2020-11-15T21:34:44Z) - Simple and Efficient Hard Label Black-box Adversarial Attacks in Low
Query Budget Regimes [80.9350052404617]
そこで我々は,ブラックボックス攻撃の簡易かつ効率的なベイズ最適化(BO)に基づく手法を提案する。
高次元におけるBOの性能に関する問題は、構造化された低次元部分空間における逆例を探すことによって回避される。
提案手法は,10倍から20倍のクエリを必要としながら,攻撃成功率を2倍から10倍に向上させる。
論文 参考訳(メタデータ) (2020-07-13T04:34:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。