論文の概要: Probabilistic Jacobian-based Saliency Maps Attacks
- arxiv url: http://arxiv.org/abs/2007.06032v4
- Date: Thu, 10 Dec 2020 11:19:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 05:48:32.493353
- Title: Probabilistic Jacobian-based Saliency Maps Attacks
- Title(参考訳): 確率的ヤコビアン分布図攻撃
- Authors: Th\'eo Combey, Ant\'onio Loison, Maxime Faucher and Hatem Hajri
- Abstract要約: 出力確率とNNCの入力特徴により,JSMAのサリエンシマップを解析することにより,より強力な攻撃アルゴリズムが得られることを示す。
Weighted JSMA(WJSMA)とTaylor JSMA(TJSMA)と名付けられたJSMAの改良版を紹介する。
- 参考スコア(独自算出の注目度): 0.802904964931021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural network classifiers (NNCs) are known to be vulnerable to malicious
adversarial perturbations of inputs including those modifying a small fraction
of the input features named sparse or $L_0$ attacks. Effective and fast $L_0$
attacks, such as the widely used Jacobian-based Saliency Map Attack (JSMA) are
practical to fool NNCs but also to improve their robustness. In this paper, we
show that penalising saliency maps of JSMA by the output probabilities and the
input features of the NNC allows to obtain more powerful attack algorithms that
better take into account each input's characteristics. This leads us to
introduce improved versions of JSMA, named Weighted JSMA (WJSMA) and Taylor
JSMA (TJSMA), and demonstrate through a variety of white-box and black-box
experiments on three different datasets (MNIST, CIFAR-10 and GTSRB), that they
are both significantly faster and more efficient than the original targeted and
non-targeted versions of JSMA. Experiments also demonstrate, in some cases,
very competitive results of our attacks in comparison with the Carlini-Wagner
(CW) $L_0$ attack, while remaining, like JSMA, significantly faster (WJSMA and
TJSMA are more than 50 times faster than CW $L_0$ on CIFAR-10). Therefore, our
new attacks provide good trade-offs between JSMA and CW for $L_0$ real-time
adversarial testing on datasets such as the ones previously cited. Codes are
publicly available through the link
https://github.com/probabilistic-jsmas/probabilistic-jsmas.
- Abstract(参考訳): ニューラルネットワーク分類器(nncs)は、sparseまたは$l_0$アタックと呼ばれる入力機能のごく一部を変更することを含む、入力の悪意のある敵対的な摂動に対して脆弱であることが知られている。
広く使われているJacobianベースのSaliency Map Attack (JSMA)のような、効果的で高速な$L_0$攻撃は、NNCを騙すには実用的だが、その堅牢性も向上する。
本稿では,出力確率とNNCの入力特徴により,JSMAのサリエンシマップを解析することにより,各入力の特性を考慮に入れたより強力な攻撃アルゴリズムが得られることを示す。
これにより、JSMAの改良版であるWeighted JSMA (WJSMA) とTaylor JSMA (TJSMA) を導入し、3つの異なるデータセット(MNIST、CIFAR-10、GTSRB)で様々なホワイトボックスとブラックボックスの実験を行い、JSMAの元々のターゲットおよび非ターゲットバージョンよりも大幅に高速かつ効率的であることを実証した。
また、いくつかのケースでは、Carini-Wagner (CW) $L_0$攻撃と比較して非常に競合的な結果を示したが、JSMAのように残りの方がかなり高速である(CIFAR-10では、WJSMAとTJSMAはCW $L_0$よりも50倍以上高速である)。
したがって、新しいアタックは、以前引用したようなデータセット上でl_0$ real-time adversarial testingに対して、jsmaとcwの間の良いトレードオフを提供します。
コードはhttps://github.com/probabilistic-jsmas/probabilistic-jsmasで公開されている。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - Rethinking Targeted Adversarial Attacks For Neural Machine Translation [56.10484905098989]
本報告では,NMTが標的とする敵攻撃に対して,信頼性の高い攻撃結果をもたらす可能性のある新たな設定を提案する。
新しい設定では、敵の例を作成するためのTWGA(Targeted Word Gradient Adversarial Attack)手法を提案する。
実験の結果,提案手法はNMTシステムに対する敵攻撃に対して忠実な攻撃効果をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-07T10:16:06Z) - Perturbation Towards Easy Samples Improves Targeted Adversarial Transferability [6.631279159122179]
ESMA(Easy Sample Matching Attack)と呼ばれる攻撃戦略が提案されている。
ESMAは標的攻撃の成功率が高く、SOTA生成法より優れている。
論文 参考訳(メタデータ) (2024-06-08T17:33:23Z) - A Large-scale Multiple-objective Method for Black-box Attack against
Object Detection [70.00150794625053]
我々は、真正の確率を最小化し、偽正の確率を最大化し、より多くの偽正の物体が新しい真正の有界箱を作らないようにする。
我々は、GARSDCと呼ばれるランダム・サブセット選択とディバイド・アンド・コンカーによる標準的な遺伝的アルゴリズムを拡張し、効率を大幅に改善する。
最先端攻撃法と比較して、GARSDCはmAPでは平均12.0、広範囲な実験ではクエリでは約1000倍減少する。
論文 参考訳(メタデータ) (2022-09-16T08:36:42Z) - Unifying Gradients to Improve Real-world Robustness for Deep Networks [28.94112170725205]
我々は,異なるデータのグラディエント(Unified Gradients,UniG)を統一した実世界の防衛法を提案する。
UniGは、攻撃者がツイストされ、情報に乏しい攻撃方向を示す。
プラグアンドプレイの製品モジュールであるHadamardでUniGを効率的に実装する。
論文 参考訳(メタデータ) (2022-08-12T11:41:56Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - Stochastic sparse adversarial attacks [17.43654235818416]
本稿では,ニューラルネットワーク分類器(NNC)の単純かつ高速かつ純粋に雑音に基づく標的的かつ未標的的攻撃として,SSAA(sparse adversarial attacks)を提案する。
SSAAは、マルコフプロセスに広く用いられる小さな拡張アイデアを活用することで考案された。
小型および大規模データセット(CIFAR-10とImageNet)の実験では、最先端の手法と比較して、SSAAのいくつかの利点が示されている。
論文 参考訳(メタデータ) (2020-11-24T22:07:51Z) - AI-GAN: Attack-Inspired Generation of Adversarial Examples [14.709927651682783]
ディープニューラルネットワーク(DNN)は、入力に知覚不可能な摂動を加えることで構築された敵の例に対して脆弱である。
近年、様々な攻撃や戦略が提案されているが、現実的かつ効率的に敵の例を生成する方法は未解決のままである。
本稿では、ジェネレータ、識別器、攻撃者が共同で訓練されるAI-GAN(Attack-Inspired GAN)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-06T10:57:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。