論文の概要: Boosting Gradient for White-Box Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2010.10712v1
- Date: Wed, 21 Oct 2020 02:13:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-10-04 23:31:56.062979
- Title: Boosting Gradient for White-Box Adversarial Attacks
- Title(参考訳): ホワイトボックス・アドバーサリーアタックの昇降勾配
- Authors: Hongying Liu, Zhenyu Zhou, Fanhua Shang, Xiaoyu Qi, Yuanyuan Liu,
Licheng Jiao
- Abstract要約: そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
- 参考スコア(独自算出の注目度): 60.422511092730026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are playing key roles in various artificial
intelligence applications such as image classification and object recognition.
However, a growing number of studies have shown that there exist adversarial
examples in DNNs, which are almost imperceptibly different from original
samples, but can greatly change the network output. Existing white-box attack
algorithms can generate powerful adversarial examples. Nevertheless, most of
the algorithms concentrate on how to iteratively make the best use of gradients
to improve adversarial performance. In contrast, in this paper, we focus on the
properties of the widely-used ReLU activation function, and discover that there
exist two phenomena (i.e., wrong blocking and over transmission) misleading the
calculation of gradients in ReLU during the backpropagation. Both issues
enlarge the difference between the predicted changes of the loss function from
gradient and corresponding actual changes, and mislead the gradients which
results in larger perturbations. Therefore, we propose a universal adversarial
example generation method, called ADV-ReLU, to enhance the performance of
gradient based white-box attack algorithms. During the backpropagation of the
network, our approach calculates the gradient of the loss function versus
network input, maps the values to scores, and selects a part of them to update
the misleading gradients. Comprehensive experimental results on \emph{ImageNet}
demonstrate that our ADV-ReLU can be easily integrated into many
state-of-the-art gradient-based white-box attack algorithms, as well as
transferred to black-box attack attackers, to further decrease perturbations in
the ${\ell _2}$-norm.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は、画像分類やオブジェクト認識など、さまざまな人工知能応用において重要な役割を果たす。
しかし、多くの研究が、DNNに逆の例があることを示しており、これは元々のサンプルとほとんど違いはあるものの、ネットワーク出力を大きく変えることができる。
既存のホワイトボックス攻撃アルゴリズムは強力な敵の例を生成することができる。
それでも、ほとんどのアルゴリズムは、敵対的性能を改善するために勾配を最適に活用する方法に重点を置いている。
対照的に,本論文では広く用いられているrelu活性化関数の特性に着目し,バックプロパゲーション中のreluの勾配の計算を誤解する2つの現象(誤ブロッキングとオーバートランスミッション)が存在することを発見した。
どちらの問題も、損失関数の予測された変化とそれに対応する実際の変化との差を拡大し、大きな摂動をもたらす勾配を誤解させる。
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上のための汎用対角法を提案する。
ネットワークのバックプロパゲーション中に、ネットワーク入力に対する損失関数の勾配を計算し、その値をスコアにマップし、その一部を選択して、誤解を招く勾配を更新する。
emph{imagenet} に関する包括的な実験の結果は、我々のadv-reluは、多くの最先端のグラデーションベースのホワイトボックス攻撃アルゴリズムに容易に統合でき、ブラックボックス攻撃に転送でき、${\ell _2}$-norm の摂動をさらに低減できることを示している。
関連論文リスト
- Rethinking PGD Attack: Is Sign Function Necessary? [131.6894310945647]
本稿では,このような手話に基づく更新アルゴリズムが段階的攻撃性能にどのように影響するかを理論的に分析する。
本稿では,手話の使用を排除したRGDアルゴリズムを提案する。
提案したRGDアルゴリズムの有効性は実験で広く実証されている。
論文 参考訳(メタデータ) (2023-12-03T02:26:58Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - Visual Explanations from Deep Networks via Riemann-Stieltjes Integrated
Gradient-based Localization [0.24596929878045565]
我々は,CNNの予測のための視覚的説明を生成する新しい手法を提案する。
本手法はネットワークの任意の層に適用可能であり, 積分勾配と同様, 勾配の消失問題の影響を受けない。
Grad-CAMと比較して、我々のアルゴリズムが生成したヒートマップは興味のある領域に集中しており、数値計算はより安定である。
論文 参考訳(メタデータ) (2022-05-22T18:30:38Z) - Sampling-based Fast Gradient Rescaling Method for Highly Transferable
Adversarial Attacks [19.917677500613788]
勾配ベースのアプローチは一般的に、プロセスの最後に摂動を生成するために$sign$関数を使用する。
そこで本研究では,S-FGRM(Saming-based Fast Gradient Rescaling Method)を提案する。
論文 参考訳(メタデータ) (2022-04-06T15:12:20Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - IWA: Integrated Gradient based White-box Attacks for Fooling Deep Neural
Networks [4.739554342067529]
Adversarial White-box Adversarial Example Generation Algorithm (IWA): IFPAとIUA。
本稿では,2つの勾配に基づくWhite-box Adversarial Example Generationアルゴリズム(IWA:IFPAとIUA)を提案する。
我々は,提案アルゴリズムの有効性を構造化データセットと非構造化データセットの両方で検証し,それらを5つのベースライン生成アルゴリズムと比較した。
論文 参考訳(メタデータ) (2021-02-03T16:10:42Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - Towards Sharper First-Order Adversary with Quantized Gradients [43.02047596005796]
敵の訓練は最も成功した 敵の攻撃に対する防御だった
最先端の1次攻撃では、符号勾配を持つ逆例は各勾配成分の符号情報を保持するが、成分間の相対等級は捨てる。
勾配量子化は符号情報を保存するだけでなく、成分間の相対等級も保持する。
論文 参考訳(メタデータ) (2020-02-01T14:33:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。