論文の概要: AutoAdversary: A Pixel Pruning Method for Sparse Adversarial Attack
- arxiv url: http://arxiv.org/abs/2203.09756v1
- Date: Fri, 18 Mar 2022 06:06:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-21 13:35:31.535230
- Title: AutoAdversary: A Pixel Pruning Method for Sparse Adversarial Attack
- Title(参考訳): AutoAdversary: スパース・アタックのためのピクセル・プルーニング方式
- Authors: Jinqiao Li, Xiaotao Liu, Jian Zhao, Furao Shen
- Abstract要約: 逆数例の特別な枝、すなわちスパース対数例は、数ピクセルだけを摂動することでターゲットのDNNを騙すことができる。
そこで本稿では,AutoAdversaryという新たな対向攻撃手法を提案する。
提案手法がいくつかの最先端手法よりも優れていることを示す実験を行った。
- 参考スコア(独自算出の注目度): 8.926478245654703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have been proven to be vulnerable to adversarial
examples. A special branch of adversarial examples, namely sparse adversarial
examples, can fool the target DNNs by perturbing only a few pixels. However,
many existing sparse adversarial attacks use heuristic methods to select the
pixels to be perturbed, and regard the pixel selection and the adversarial
attack as two separate steps. From the perspective of neural network pruning,
we propose a novel end-to-end sparse adversarial attack method, namely
AutoAdversary, which can find the most important pixels automatically by
integrating the pixel selection into the adversarial attack. Specifically, our
method utilizes a trainable neural network to generate a binary mask for the
pixel selection. After jointly optimizing the adversarial perturbation and the
neural network, only the pixels corresponding to the value 1 in the mask are
perturbed. Experiments demonstrate the superiority of our proposed method over
several state-of-the-art methods. Furthermore, since AutoAdversary does not
require a heuristic pixel selection process, it does not slow down excessively
as other methods when the image size increases.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、敵の例に弱いことが証明されている。
逆数例の特別な枝、すなわちスパース対数例は、数ピクセルだけを摂動することでターゲットのDNNを騙すことができる。
しかし、既存のスパース対逆攻撃の多くは、ヒューリスティック手法を用いて、摂動すべきピクセルを選択し、画素選択と対逆攻撃を2つの別々のステップとみなす。
ニューラル・ネットワーク・プルーニングの観点からは,新たな対向攻撃手法,すなわちAutoAdversaryを提案し,画素選択を対向攻撃に統合することにより,最も重要な画素を自動的に見つけることができる。
具体的には,学習可能なニューラルネットワークを用いて,画素選択のためのバイナリマスクを生成する。
対向摂動とニューラルネットワークを協調的に最適化した後、マスクの値1に対応する画素のみを摂動する。
実験により,提案手法が最先端手法よりも優れていることを示す。
さらに、AutoAdversaryはヒューリスティックな画素選択プロセスを必要としないため、画像サイズが大きくなると他の方法ほど遅くならない。
関連論文リスト
- Optimizing One-pixel Black-box Adversarial Attacks [0.0]
深層ニューラルネットワーク(DNN)の出力は、ブラックボックス設定での入力の小さな摂動によって変更することができる。
この研究は、攻撃中のネットワークへの呼び出し回数を減らすために、1ピクセル(2ピクセル)のブラックボックス攻撃を改善することを目指している。
論文 参考訳(メタデータ) (2022-04-30T12:42:14Z) - Adversarial examples by perturbing high-level features in intermediate
decoder layers [0.0]
画素を摂動する代わりに、入力画像のエンコーダ-デコーダ表現とデコーダの中間層を摂動する。
我々の摂動は、より長いくちばしや緑のくちばしのような意味的な意味を持っている。
本手法は,敵の攻撃に対して,敵の訓練に基づく防御技術が脆弱であることを示す。
論文 参考訳(メタデータ) (2021-10-14T07:08:15Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - GreedyFool: Distortion-Aware Sparse Adversarial Attack [138.55076781355206]
現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
論文 参考訳(メタデータ) (2020-10-26T17:59:07Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。