論文の概要: Approximate better, Attack stronger: Adversarial Example Generation via
Asymptotically Gaussian Mixture Distribution
- arxiv url: http://arxiv.org/abs/2209.11964v1
- Date: Sat, 24 Sep 2022 08:57:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 14:55:34.474758
- Title: Approximate better, Attack stronger: Adversarial Example Generation via
Asymptotically Gaussian Mixture Distribution
- Title(参考訳): 近似精度、攻撃力:漸近的ガウス混合分布による逆例生成
- Authors: Zhengwei Fang, Rui Wang, Tao Huang, Liping Jing
- Abstract要約: 複数の漸近的正規分布攻撃(MultiANDA)を提案する。
我々は勾配上昇(SGA)の正規性を利用して摂動の後方分布を近似する。
提案手法は、防御の有無にかかわらず、ディープラーニングモデルに対する9つの最先端のブラックボックス攻撃より優れている。
- 参考スコア(独自算出の注目度): 20.675257615330864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Strong adversarial examples are the keys to evaluating and enhancing the
robustness of deep neural networks. The popular adversarial attack algorithms
maximize the non-concave loss function using the gradient ascent. However, the
performance of each attack is usually sensitive to, for instance, minor image
transformations due to insufficient information (only one input example, few
white-box source models and unknown defense strategies). Hence, the crafted
adversarial examples are prone to overfit the source model, which limits their
transferability to unidentified architectures. In this paper, we propose
Multiple Asymptotically Normal Distribution Attacks (MultiANDA), a novel method
that explicitly characterizes adversarial perturbations from a learned
distribution. Specifically, we approximate the posterior distribution over the
perturbations by taking advantage of the asymptotic normality property of
stochastic gradient ascent (SGA), then apply the ensemble strategy on this
procedure to estimate a Gaussian mixture model for a better exploration of the
potential optimization space. Drawing perturbations from the learned
distribution allow us to generate any number of adversarial examples for each
input. The approximated posterior essentially describes the stationary
distribution of SGA iterations, which captures the geometric information around
the local optimum. Thus, the samples drawn from the distribution reliably
maintain the transferability. Our proposed method outperforms nine
state-of-the-art black-box attacks on deep learning models with or without
defenses through extensive experiments on seven normally trained and seven
defence models.
- Abstract(参考訳): 強力な敵の例は、ディープニューラルネットワークの堅牢性を評価し、強化する鍵である。
一般的な対向攻撃アルゴリズムは勾配上昇を用いて非凹凸損失関数を最大化する。
しかし、各攻撃のパフォーマンスは通常、情報不足によるマイナーな画像変換(入力例が1つ、ホワイトボックスのソースモデルが少数、防御戦略が不明)に敏感である。
したがって、手作りの敵対的な例はソースモデルに過度に適合しがちであり、不特定なアーキテクチャへの転送性を制限している。
本稿では,学習した分布から対向的摂動を明示的に特徴づける新しい手法であるMultiANDA(MultiANDA)を提案する。
具体的には,確率的勾配上昇(sga)の漸近正規性を利用して摂動の後方分布を近似し,この過程にアンサンブル戦略を適用してガウス混合モデルを推定し,潜在的な最適化空間をよりよく探索する。
学習した分布から摂動を描画することで、各入力に対して様々な逆例を生成することができる。
近似された後段は基本的にsga反復の定常分布を表し、局所最適の周りの幾何学的情報をキャプチャする。
したがって、分布から引き出された試料は確実に転写性を維持することができる。
提案手法は、通常訓練された7つの防御モデルと7つの防御モデルに対する広範囲な実験を通じて、防御の有無にかかわらず、9つの最先端のブラックボックス攻撃を再現する。
関連論文リスト
- GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Boosting Adversarial Transferability by Achieving Flat Local Maxima [23.91315978193527]
近年、様々な敵の攻撃が出現し、異なる視点から敵の移動可能性を高めている。
本研究では, 平坦な局所領域における逆例が良好な伝達性を持つ傾向があることを仮定し, 実証的に検証する。
目的関数の勾配更新を簡略化する近似最適化法を提案する。
論文 参考訳(メタデータ) (2023-06-08T14:21:02Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Shaping Deep Feature Space towards Gaussian Mixture for Visual
Classification [74.48695037007306]
視覚分類のためのディープニューラルネットワークのためのガウス混合損失関数(GM)を提案する。
分類マージンと可能性正規化により、GM損失は高い分類性能と特徴分布の正確なモデリングの両方を促進する。
提案したモデルは、追加のトレーニング可能なパラメータを使わずに、簡単かつ効率的に実装できる。
論文 参考訳(メタデータ) (2020-11-18T03:32:27Z) - When Does Preconditioning Help or Hurt Generalization? [74.25170084614098]
本稿では,第1次および第2次手法のテキスト単純バイアスが一般化特性の比較にどのように影響するかを示す。
本稿では、バイアス分散トレードオフを管理するためのいくつかのアプローチと、GDとNGDを補間する可能性について論じる。
論文 参考訳(メタデータ) (2020-06-18T17:57:26Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z) - AdvJND: Generating Adversarial Examples with Just Noticeable Difference [3.638233924421642]
例に小さな摂動を加えると、優れたパフォーマンスモデルが工芸品の例を誤って分類する。
我々のAdvJNDアルゴリズムが生成した逆例は、元の入力に類似した分布を生成する。
論文 参考訳(メタデータ) (2020-02-01T09:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。