論文の概要: Enhancing Targeted Attack Transferability via Diversified Weight Pruning
- arxiv url: http://arxiv.org/abs/2208.08677v1
- Date: Thu, 18 Aug 2022 07:25:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:21:47.389516
- Title: Enhancing Targeted Attack Transferability via Diversified Weight Pruning
- Title(参考訳): 多様化重み打ちによる目標攻撃伝達性の向上
- Authors: Hung-Jui Wang, Yu-Yu Wu, Shang-Tse Chen
- Abstract要約: 悪意のある攻撃者は、画像に人間の知覚できないノイズを与えることによって、標的となる敵の例を生成することができる。
クロスモデル転送可能な敵の例では、モデル情報が攻撃者から秘密にされている場合でも、ニューラルネットワークの脆弱性は残る。
近年の研究では, エンサンブル法の有効性が示されている。
- 参考スコア(独自算出の注目度): 0.3222802562733786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Malicious attackers can generate targeted adversarial examples by imposing
human-imperceptible noise on images, forcing neural network models to produce
specific incorrect outputs. With cross-model transferable adversarial examples,
the vulnerability of neural networks remains even if the model information is
kept secret from the attacker. Recent studies have shown the effectiveness of
ensemble-based methods in generating transferable adversarial examples.
However, existing methods fall short under the more challenging scenario of
creating targeted attacks transferable among distinct models. In this work, we
propose Diversified Weight Pruning (DWP) to further enhance the ensemble-based
methods by leveraging the weight pruning method commonly used in model
compression. Specifically, we obtain multiple diverse models by a random weight
pruning method. These models preserve similar accuracies and can serve as
additional models for ensemble-based methods, yielding stronger transferable
targeted attacks. Experiments on ImageNet-Compatible Dataset under the more
challenging scenarios are provided: transferring to distinct architectures and
to adversarially trained models. The results show that our proposed DWP
improves the targeted attack success rates with up to 4.1% and 8.0% on the
combination of state-of-the-art methods, respectively
- Abstract(参考訳): 悪意のある攻撃者は、画像に人間の知覚できないノイズを課し、ニューラルネットワークモデルに特定の不正な出力を強制することで、標的となる敵の例を生成することができる。
クロスモデル転送可能な攻撃例では、モデル情報が攻撃者から秘密にされている場合でも、ニューラルネットワークの脆弱性は残る。
近年の研究では, エンサンブル法の有効性が示されている。
しかし、既存の手法は、異なるモデル間で転送可能なターゲットアタックを作成するというより困難なシナリオに該当しない。
そこで本研究では,モデル圧縮によく用いられる重み打ち法を利用して,アンサンブルに基づく手法をさらに強化するために,DWP(Diversified Weight Pruning)を提案する。
具体的には,ランダムウェイトプルーニング法を用いて多種多様なモデルを得る。
これらのモデルは類似の精度を保ち、アンサンブルベースの手法のための追加モデルとして機能し、より強力な転送可能な標的攻撃をもたらす。
ImageNet-Compatible Datasetの実験は、異なるアーキテクチャへの転送や、反対に訓練されたモデルなど、より困難なシナリオ下で提供される。
その結果,提案したDWPは,最先端手法の組み合わせにより目標攻撃成功率を最大4.1%,8.0%向上させることがわかった。
関連論文リスト
- Enhancing Adversarial Attacks: The Similar Target Method [6.293148047652131]
敵対的な例は、ディープニューラルネットワークのアプリケーションに脅威をもたらす。
ディープニューラルネットワークは敵の例に対して脆弱であり、モデルのアプリケーションに脅威を与え、セキュリティ上の懸念を提起する。
我々はSimisal Target(ST)という類似の攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T14:16:36Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Frequency Domain Model Augmentation for Adversarial Attack [91.36850162147678]
ブラックボックス攻撃の場合、代用モデルと被害者モデルの間のギャップは通常大きい。
そこで本研究では,通常の訓練モデルと防衛モデルの両方に対して,より伝達可能な対角線モデルを構築するための新しいスペクトルシミュレーション攻撃を提案する。
論文 参考訳(メタデータ) (2022-07-12T08:26:21Z) - Stochastic Variance Reduced Ensemble Adversarial Attack for Boosting the
Adversarial Transferability [20.255708227671573]
ブラックボックスの敵攻撃は、あるモデルから別のモデルに転送することができる。
本研究では,分散縮小アンサンブル攻撃と呼ばれる新しいアンサンブル攻撃法を提案する。
実験結果から,提案手法は既存のアンサンブル攻撃を著しく上回り,対向移動性を向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-11-21T06:33:27Z) - Training Meta-Surrogate Model for Transferable Adversarial Attack [98.13178217557193]
クエリーを許可しない場合、ブラックボックスモデルに対する逆攻撃を考える。
この設定では、多くの手法が代理モデルを直接攻撃し、得られた敵の例をターゲットモデルを騙すために転送する。
メタサロゲートモデル(Meta-Surrogate Model:MSM)は,このモデルに対する攻撃が,他のモデルに容易に転送できることを示す。
論文 参考訳(メタデータ) (2021-09-05T03:27:46Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z) - Random Transformation of Image Brightness for Adversarial Attack [5.405413975396116]
逆の例は、オリジナルの画像に小さな人間の知覚できないものを加えることで作られる。
ディープニューラルネットワークは、オリジナルの画像に小さな人間の知覚できないものを加えることで構築される敵の例に対して脆弱である。
本稿では,高速勾配符号法と統合可能な,この現象に基づく逆例生成手法を提案する。
本手法は,データ拡張に基づく他の攻撃方法よりもブラックボックス攻撃の成功率が高い。
論文 参考訳(メタデータ) (2021-01-12T07:00:04Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - DVERGE: Diversifying Vulnerabilities for Enhanced Robust Generation of
Ensembles [20.46399318111058]
敵攻撃は、小さな摂動でCNNモデルを誤解させる可能性があるため、同じデータセットでトレーニングされた異なるモデル間で効果的に転送することができる。
非破壊的特徴を蒸留することにより,各サブモデルの逆脆弱性を分離するDVERGEを提案する。
新たな多様性基準とトレーニング手順により、DVERGEは転送攻撃に対して高い堅牢性を達成することができる。
論文 参考訳(メタデータ) (2020-09-30T14:57:35Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。