論文の概要: Improving the Transferability of Adversarial Examples with New Iteration
Framework and Input Dropout
- arxiv url: http://arxiv.org/abs/2106.01617v1
- Date: Thu, 3 Jun 2021 06:36:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 16:26:16.089548
- Title: Improving the Transferability of Adversarial Examples with New Iteration
Framework and Input Dropout
- Title(参考訳): 新しいイテレーションフレームワークと入力ドロップアウトによる逆例の転送性の向上
- Authors: Pengfei Xie, Linyuan Wang, Ruoxi Qin, Kai Qiao, Shuhao Shi, Guoen Hu,
Bin Yan
- Abstract要約: 本稿では,反復ステップサイズ,摂動数,最大イテレーションの関係を再定義する,新たな勾配反復フレームワークを提案する。
本枠組みでは,DI-TI-MIMの攻撃成功率を容易に向上させる。
さらに,入力ドロップアウトに基づく勾配反復攻撃手法を提案する。
- 参考スコア(独自算出の注目度): 8.24029748310858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks(DNNs) is vulnerable to be attacked by adversarial
examples. Black-box attack is the most threatening attack. At present,
black-box attack methods mainly adopt gradient-based iterative attack methods,
which usually limit the relationship between the iteration step size, the
number of iterations, and the maximum perturbation. In this paper, we propose a
new gradient iteration framework, which redefines the relationship between the
above three. Under this framework, we easily improve the attack success rate of
DI-TI-MIM. In addition, we propose a gradient iterative attack method based on
input dropout, which can be well combined with our framework. We further
propose a multi dropout rate version of this method. Experimental results show
that our best method can achieve attack success rate of 96.2\% for defense
model on average, which is higher than the state-of-the-art gradient-based
attacks.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、敵の例によって攻撃される脆弱性がある。
ブラックボックス攻撃は最も脅威となる攻撃である。
現在、ブラックボックス攻撃法は主に勾配に基づく反復攻撃法を採用しており、これは通常、イテレーションステップサイズ、イテレーション数、最大摂動の関係を制限している。
本稿では,上記の3つの関係を再定義する新しい勾配反復フレームワークを提案する。
本枠組みでは,DI-TI-MIMの攻撃成功率を容易に向上させる。
さらに,入力ドロップアウトに基づく段階的反復攻撃手法を提案する。
さらに,本手法のマルチドロップアウト率バージョンを提案する。
実験結果から,防衛モデルの平均攻撃成功率は96.2 %であり,最先端の勾配に基づく攻撃よりも高いことがわかった。
関連論文リスト
- Adversarial Attack Based on Prediction-Correction [8.467466998915018]
ディープニューラルネットワーク(DNN)は、元の例に小さな摂動を加えることで得られる敵の例に対して脆弱である。
本稿では,新たな予測補正(PC)に基づく対角攻撃を提案する。
提案したPCベースの攻撃では、予測された例を最初に生成するために既存の攻撃を選択し、予測された例と現在の例を組み合わせて追加の摂動を決定する。
論文 参考訳(メタデータ) (2023-06-02T03:11:32Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - Staircase Sign Method for Boosting Adversarial Attacks [123.19227129979943]
トランスファーベースの攻撃の敵の例を作るのは難しいし、研究のホットスポットだ。
そこで本研究では,この問題を緩和するための新しい階段サイン法(S$2$M)を提案する。
我々の手法は一般に転送ベースの攻撃と統合することができ、計算オーバーヘッドは無視できる。
論文 参考訳(メタデータ) (2021-04-20T02:31:55Z) - Enhancing the Transferability of Adversarial Attacks through Variance
Tuning [6.5328074334512]
反復勾配に基づく攻撃手法のクラスを強化するための分散チューニングと呼ばれる新しい方法を提案する。
標準のImageNetデータセットを用いた実験結果から,勾配に基づく敵攻撃の転送性を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2021-03-29T12:41:55Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - Yet Another Intermediate-Level Attack [31.055720988792416]
ディープニューラルネットワーク(DNN)モデルにまたがる敵のサンプルの転送可能性は、ブラックボックス攻撃のスペクトルのくぼみである。
本稿では,ベースライン逆数例のブラックボックス転送性を向上させる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-20T09:14:04Z) - Making Adversarial Examples More Transferable and Indistinguishable [7.885043234081768]
本稿では,高い転送性を有する不明瞭な逆例を生成する手法を提案する。
我々の最も優れた転送ベース攻撃NI-TI-DI-AITMは、89.3%の平均的な成功率で6つの古典的な防衛モデルを騙すことができる。
論文 参考訳(メタデータ) (2020-07-08T01:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。