論文の概要: GreedyFool: Distortion-Aware Sparse Adversarial Attack
- arxiv url: http://arxiv.org/abs/2010.13773v1
- Date: Mon, 26 Oct 2020 17:59:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 19:23:56.038348
- Title: GreedyFool: Distortion-Aware Sparse Adversarial Attack
- Title(参考訳): GreedyFool: 歪曲を意識したスパース攻撃
- Authors: Xiaoyi Dong and Dongdong Chen and Jianmin Bao and Chuan Qin and Lu
Yuan and Weiming Zhang and Nenghai Yu and Dong Chen
- Abstract要約: 現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
- 参考スコア(独自算出の注目度): 138.55076781355206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern deep neural networks(DNNs) are vulnerable to adversarial samples.
Sparse adversarial samples are a special branch of adversarial samples that can
fool the target model by only perturbing a few pixels. The existence of the
sparse adversarial attack points out that DNNs are much more vulnerable than
people believed, which is also a new aspect for analyzing DNNs. However,
current sparse adversarial attack methods still have some shortcomings on both
sparsity and invisibility. In this paper, we propose a novel two-stage
distortion-aware greedy-based method dubbed as "GreedyFool". Specifically, it
first selects the most effective candidate positions to modify by considering
both the gradient(for adversary) and the distortion map(for invisibility), then
drops some less important points in the reduce stage. Experiments demonstrate
that compared with the start-of-the-art method, we only need to modify
$3\times$ fewer pixels under the same sparse perturbation setting. For target
attack, the success rate of our method is 9.96\% higher than the
start-of-the-art method under the same pixel budget. Code can be found at
https://github.com/LightDXY/GreedyFool.
- Abstract(参考訳): 現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプル(Sparse adversarial sample)は、数ピクセルの摂動のみによってターゲットモデルを騙すことができる逆数サンプルの特別な枝である。
まばらな敵対攻撃の存在は、DNNは人々が信じていたよりもはるかに脆弱であることを示しており、これもDNNを解析するための新しい側面である。
しかし、現在のスパース対逆攻撃法は、疎度と不可視性の両方に欠点がある。
本稿では,GreedyFoolと呼ばれる2段階の歪みを考慮したグリード法を提案する。
具体的には、まずグラデーション(逆向き)と歪みマップ(可視性)の両方を考慮し、修正する最も効果的な候補位置を選択し、還元段階においていくつかの重要でないポイントを落とします。
実験では、開始時の方法と比較して、同じ摂動設定で3\times$のピクセルを変更するだけでよいことが示されています。
ターゲット攻撃の場合、同じ画素予算で、本手法の成功率は、創成開始法よりも9.96\%高い。
コードはhttps://github.com/LightDXY/GreedyFool.orgにある。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - A New Kind of Adversarial Example [47.64219291655723]
モデルが元の決定を維持しているようなイメージに十分な摂動が加えられる一方、人間は決定を強制すれば間違いを犯す可能性が高い。
提案した攻撃はNKEと呼ばれ、本質的にはばかげた画像に似ているが、進化アルゴリズムの代わりに勾配降下を用いるため、より効率的である。
論文 参考訳(メタデータ) (2022-08-04T03:45:44Z) - AutoAdversary: A Pixel Pruning Method for Sparse Adversarial Attack [8.926478245654703]
逆数例の特別な枝、すなわちスパース対数例は、数ピクセルだけを摂動することでターゲットのDNNを騙すことができる。
そこで本稿では,AutoAdversaryという新たな対向攻撃手法を提案する。
提案手法がいくつかの最先端手法よりも優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2022-03-18T06:06:06Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - TEAM: We Need More Powerful Adversarial Examples for DNNs [6.7943676146532885]
敵対的な例はディープニューラルネットワーク(DNN)の誤分類につながる可能性がある
本稿では,従来の手法よりも強力な逆例を生成する新しい手法を提案する。
攻撃成功率100% (ASR) の逆例を, より小さい摂動のみで確実に生成することができる。
論文 参考訳(メタデータ) (2020-07-31T04:11:02Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。