論文の概要: IWA: Integrated Gradient based White-box Attacks for Fooling Deep Neural
Networks
- arxiv url: http://arxiv.org/abs/2102.02128v1
- Date: Wed, 3 Feb 2021 16:10:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-04 17:06:16.823630
- Title: IWA: Integrated Gradient based White-box Attacks for Fooling Deep Neural
Networks
- Title(参考訳): IWA: 深層ニューラルネットワークのための統合グラディエントベースのホワイトボックス攻撃
- Authors: Yixiang Wang, Jiqiang Liu, Xiaolin Chang, Jelena Mi\v{s}i\'c, and
Vojislav B. Mi\v{s}i\'c
- Abstract要約: Adversarial White-box Adversarial Example Generation Algorithm (IWA): IFPAとIUA。
本稿では,2つの勾配に基づくWhite-box Adversarial Example Generationアルゴリズム(IWA:IFPAとIUA)を提案する。
我々は,提案アルゴリズムの有効性を構造化データセットと非構造化データセットの両方で検証し,それらを5つのベースライン生成アルゴリズムと比較した。
- 参考スコア(独自算出の注目度): 4.739554342067529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widespread application of deep neural network (DNN) techniques is being
challenged by adversarial examples, the legitimate input added with
imperceptible and well-designed perturbations that can fool DNNs easily in the
DNN testing/deploying stage. Previous adversarial example generation algorithms
for adversarial white-box attacks used Jacobian gradient information to add
perturbations. This information is too imprecise and inexplicit, which will
cause unnecessary perturbations when generating adversarial examples. This
paper aims to address this issue. We first propose to apply a more informative
and distilled gradient information, namely integrated gradient, to generate
adversarial examples. To further make the perturbations more imperceptible, we
propose to employ the restriction combination of $L_0$ and $L_1/L_2$ secondly,
which can restrict the total perturbations and perturbation points
simultaneously. Meanwhile, to address the non-differentiable problem of $L_1$,
we explore a proximal operation of $L_1$ thirdly. Based on these three works,
we propose two Integrated gradient based White-box Adversarial example
generation algorithms (IWA): IFPA and IUA. IFPA is suitable for situations
where there are a determined number of points to be perturbed. IUA is suitable
for situations where no perturbation point number is preset in order to obtain
more adversarial examples. We verify the effectiveness of the proposed
algorithms on both structured and unstructured datasets, and we compare them
with five baseline generation algorithms. The results show that our proposed
algorithms do craft adversarial examples with more imperceptible perturbations
and satisfactory crafting rate. $L_2$ restriction is more suitable for
unstructured dataset and $L_1$ restriction performs better in structured
dataset.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)技術の広範な適用は、DNNテスト/展開段階で容易にDNNをだますことができる知覚不能でよく設計された摂動で追加された正当な入力、逆の例によって挑戦されています。
敵のホワイトボックス攻撃に対する以前の逆例生成アルゴリズムは、ジャコビアン勾配情報を用いて摂動を追加する。
この情報は不正確で不正確であり、逆の例を生成する際に不要な摂動を引き起こす。
本稿ではこの問題に対処することを目的とする。
まず,より情報的かつ蒸留された勾配情報,すなわち統合勾配を応用し,逆例を生成することを提案する。
さらに摂動をより知覚しにくくするため, 摂動点と摂動点を同時に制限できる$L_0$と$L_1/L_2$の制限の組み合わせを提案する。
一方,$l_1$の非微分問題に対処するために,$l_1$の近値演算を三度に検討する。
これら3つの研究に基づき,2つの統合勾配に基づくWhite-box Adversarial Example Generation Algorithm (IWA)を提案する。
IFPAは、パーチュアされるポイントの決定された数がある状況に適しています。
IUAは、より逆の例を得るために摂動点数が予め設定されていない状況に適している。
提案手法の有効性を構造化データセットと非構造化データセットの両方で検証し,5つのベースライン生成アルゴリズムと比較した。
その結果,提案するアルゴリズムは,より不可視な摂動と満足のいく手技率で逆行例を示すことができた。
L_2$制限は非構造化データセットにより適しており、$L_1$制限は構造化データセットでよりよく機能する。
関連論文リスト
- Rethinking PGD Attack: Is Sign Function Necessary? [131.6894310945647]
本稿では,このような手話に基づく更新アルゴリズムが段階的攻撃性能にどのように影響するかを理論的に分析する。
本稿では,手話の使用を排除したRGDアルゴリズムを提案する。
提案したRGDアルゴリズムの有効性は実験で広く実証されている。
論文 参考訳(メタデータ) (2023-12-03T02:26:58Z) - Asynchronous Training Schemes in Distributed Learning with Time Delay [17.259708772713164]
分散ディープラーニングの文脈では、固定重みや勾配の問題によってアルゴリズムの性能が低下する可能性がある。
本稿では,静的な重みや勾配の問題に対処する別のアプローチを提案する。
また,PC-ASGDの実用版として,トレードオフパラメータの決定を支援する条件を適用して提案する。
論文 参考訳(メタデータ) (2022-08-28T07:14:59Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - An Empirical Study of Derivative-Free-Optimization Algorithms for
Targeted Black-Box Attacks in Deep Neural Networks [8.368543987898732]
本稿では,BOBYQAに基づく新しいアルゴリズムの導入とともに,既存のDFOベースの4つのアルゴリズムについて考察する。
我々は、これらのアルゴリズムを様々な設定で比較し、それらを誤分類した画像の数に応じて比較する。
実験では、敵の例を見つける確率が、使用されるアルゴリズムと攻撃の設定の両方に依存するかを明らかにする。
論文 参考訳(メタデータ) (2020-12-03T13:32:20Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - GeoDA: a geometric framework for black-box adversarial attacks [79.52980486689287]
我々は,最も困難なブラックボックス設定の1つにおいて,逆例を生成するためのフレームワークを提案する。
我々のフレームワークは、ディープネットワークの決定境界は通常、データサンプルの近傍で小さな平均曲率を持つという観察に基づいている。
論文 参考訳(メタデータ) (2020-03-13T20:03:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。