論文の概要: Patch-wise Attack for Fooling Deep Neural Network
- arxiv url: http://arxiv.org/abs/2007.06765v3
- Date: Wed, 2 Dec 2020 05:22:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 14:44:08.364161
- Title: Patch-wise Attack for Fooling Deep Neural Network
- Title(参考訳): ディープニューラルネットワークを騙すためのパッチアタック
- Authors: Lianli Gao and Qilong Zhang and Jingkuan Song and Xianglong Liu and
Heng Tao Shen
- Abstract要約: 我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
- 参考スコア(独自算出の注目度): 153.59832333877543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: By adding human-imperceptible noise to clean images, the resultant
adversarial examples can fool other unknown models. Features of a pixel
extracted by deep neural networks (DNNs) are influenced by its surrounding
regions, and different DNNs generally focus on different discriminative regions
in recognition. Motivated by this, we propose a patch-wise iterative algorithm
-- a black-box attack towards mainstream normally trained and defense models,
which differs from the existing attack methods manipulating pixel-wise noise.
In this way, without sacrificing the performance of white-box attack, our
adversarial examples can have strong transferability. Specifically, we
introduce an amplification factor to the step size in each iteration, and one
pixel's overall gradient overflowing the $\epsilon$-constraint is properly
assigned to its surrounding regions by a project kernel. Our method can be
generally integrated to any gradient-based attack methods. Compared with the
current state-of-the-art attacks, we significantly improve the success rate by
9.2\% for defense models and 3.7\% for normally trained models on average. Our
code is available at
\url{https://github.com/qilong-zhang/Patch-wise-iterative-attack}
- Abstract(参考訳): 画像のクリーニングに人間の知覚できないノイズを加えることで、他の未知のモデルを騙すことができる。
ディープニューラルネットワーク(DNN)によって抽出された画素の特徴は周囲の領域の影響を受けており、異なるDNNは一般的に認識において異なる識別領域に焦点を当てている。
そこで我々は,パッチワイド反復アルゴリズムを提案する。このブラックボックス攻撃は,従来の画素ワイドノイズを操作する攻撃手法とは異なる,主流の通常訓練および防御モデルに対する攻撃である。
このように、ホワイトボックス攻撃の性能を犠牲にすることなく、我々の敵の例は強い伝達性を持つ。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$\epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、プロジェクトカーネルによってその周辺領域に適切に割り当てられる。
我々の手法は一般に任意の勾配に基づく攻撃方法に統合できる。
現在の最先端攻撃と比較して、防御モデルの成功率は9.2\%、通常訓練されたモデルでは3.7\%有意に向上した。
私たちのコードは \url{https://github.com/qilong-zhang/Patch-wise-iterative- attack} で利用可能です。
関連論文リスト
- AutoAdversary: A Pixel Pruning Method for Sparse Adversarial Attack [8.926478245654703]
逆数例の特別な枝、すなわちスパース対数例は、数ピクセルだけを摂動することでターゲットのDNNを騙すことができる。
そこで本稿では,AutoAdversaryという新たな対向攻撃手法を提案する。
提案手法がいくつかの最先端手法よりも優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2022-03-18T06:06:06Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - GreedyFool: Distortion-Aware Sparse Adversarial Attack [138.55076781355206]
現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
論文 参考訳(メタデータ) (2020-10-26T17:59:07Z) - Decision-based Universal Adversarial Attack [55.76371274622313]
ブラックボックス設定では、現在の普遍的敵攻撃法は代用モデルを用いて摂動を生成する。
効率的な決定に基づくユニバーサルアタック(DUAttack)を提案する。
DUAttackの有効性は、他の最先端攻撃との比較によって検証される。
論文 参考訳(メタデータ) (2020-09-15T12:49:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。