論文の概要: Approximate better, Attack stronger: Adversarial Example Generation via
Asymptotically Gaussian Mixture Distribution
- arxiv url: http://arxiv.org/abs/2209.11964v1
- Date: Sat, 24 Sep 2022 08:57:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 14:55:34.474758
- Title: Approximate better, Attack stronger: Adversarial Example Generation via
Asymptotically Gaussian Mixture Distribution
- Title(参考訳): 近似精度、攻撃力:漸近的ガウス混合分布による逆例生成
- Authors: Zhengwei Fang, Rui Wang, Tao Huang, Liping Jing
- Abstract要約: 複数の漸近的正規分布攻撃(MultiANDA)を提案する。
我々は勾配上昇(SGA)の正規性を利用して摂動の後方分布を近似する。
提案手法は、防御の有無にかかわらず、ディープラーニングモデルに対する9つの最先端のブラックボックス攻撃より優れている。
- 参考スコア(独自算出の注目度): 20.675257615330864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Strong adversarial examples are the keys to evaluating and enhancing the
robustness of deep neural networks. The popular adversarial attack algorithms
maximize the non-concave loss function using the gradient ascent. However, the
performance of each attack is usually sensitive to, for instance, minor image
transformations due to insufficient information (only one input example, few
white-box source models and unknown defense strategies). Hence, the crafted
adversarial examples are prone to overfit the source model, which limits their
transferability to unidentified architectures. In this paper, we propose
Multiple Asymptotically Normal Distribution Attacks (MultiANDA), a novel method
that explicitly characterizes adversarial perturbations from a learned
distribution. Specifically, we approximate the posterior distribution over the
perturbations by taking advantage of the asymptotic normality property of
stochastic gradient ascent (SGA), then apply the ensemble strategy on this
procedure to estimate a Gaussian mixture model for a better exploration of the
potential optimization space. Drawing perturbations from the learned
distribution allow us to generate any number of adversarial examples for each
input. The approximated posterior essentially describes the stationary
distribution of SGA iterations, which captures the geometric information around
the local optimum. Thus, the samples drawn from the distribution reliably
maintain the transferability. Our proposed method outperforms nine
state-of-the-art black-box attacks on deep learning models with or without
defenses through extensive experiments on seven normally trained and seven
defence models.
- Abstract(参考訳): 強力な敵の例は、ディープニューラルネットワークの堅牢性を評価し、強化する鍵である。
一般的な対向攻撃アルゴリズムは勾配上昇を用いて非凹凸損失関数を最大化する。
しかし、各攻撃のパフォーマンスは通常、情報不足によるマイナーな画像変換(入力例が1つ、ホワイトボックスのソースモデルが少数、防御戦略が不明)に敏感である。
したがって、手作りの敵対的な例はソースモデルに過度に適合しがちであり、不特定なアーキテクチャへの転送性を制限している。
本稿では,学習した分布から対向的摂動を明示的に特徴づける新しい手法であるMultiANDA(MultiANDA)を提案する。
具体的には,確率的勾配上昇(sga)の漸近正規性を利用して摂動の後方分布を近似し,この過程にアンサンブル戦略を適用してガウス混合モデルを推定し,潜在的な最適化空間をよりよく探索する。
学習した分布から摂動を描画することで、各入力に対して様々な逆例を生成することができる。
近似された後段は基本的にsga反復の定常分布を表し、局所最適の周りの幾何学的情報をキャプチャする。
したがって、分布から引き出された試料は確実に転写性を維持することができる。
提案手法は、通常訓練された7つの防御モデルと7つの防御モデルに対する広範囲な実験を通じて、防御の有無にかかわらず、9つの最先端のブラックボックス攻撃を再現する。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - A Relaxed Optimization Approach for Adversarial Attacks against Neural
Machine Translation Models [44.04452616807661]
本稿では,ニューラルネットワーク翻訳(NMT)モデルに対する最適化に基づく逆攻撃を提案する。
実験の結果,NMTモデルの翻訳品質は有意に低下した。
我々の攻撃は、成功率、類似性保存、翻訳品質への影響、トークンエラー率の点で、ベースラインを上回っている。
論文 参考訳(メタデータ) (2023-06-14T13:13:34Z) - Boosting Adversarial Transferability by Achieving Flat Local Maxima [23.91315978193527]
近年、様々な敵の攻撃が出現し、異なる視点から敵の移動可能性を高めている。
本研究では, 平坦な局所領域における逆例が良好な伝達性を持つ傾向があることを仮定し, 実証的に検証する。
目的関数の勾配更新を簡略化する近似最適化法を提案する。
論文 参考訳(メタデータ) (2023-06-08T14:21:02Z) - Boosting Adversarial Transferability via Fusing Logits of Top-1
Decomposed Feature [36.78292952798531]
本稿では,Singular Value Decomposition(SVD)に基づく特徴レベル攻撃法を提案する。
提案手法は,中間層特徴量より大きい特異値に付随する固有ベクトルがより優れた一般化と注意特性を示すという発見に着想を得たものである。
論文 参考訳(メタデータ) (2023-05-02T12:27:44Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - Shaping Deep Feature Space towards Gaussian Mixture for Visual
Classification [74.48695037007306]
視覚分類のためのディープニューラルネットワークのためのガウス混合損失関数(GM)を提案する。
分類マージンと可能性正規化により、GM損失は高い分類性能と特徴分布の正確なモデリングの両方を促進する。
提案したモデルは、追加のトレーニング可能なパラメータを使わずに、簡単かつ効率的に実装できる。
論文 参考訳(メタデータ) (2020-11-18T03:32:27Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。