論文の概要: TEAM: We Need More Powerful Adversarial Examples for DNNs
- arxiv url: http://arxiv.org/abs/2007.15836v2
- Date: Mon, 10 Aug 2020 01:38:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 05:53:17.691073
- Title: TEAM: We Need More Powerful Adversarial Examples for DNNs
- Title(参考訳): TEAM:DNNにもっと強力な敵の例が必要です
- Authors: Yaguan Qian and Ximin Zhang and Bin Wang and Wei Li and Zhaoquan Gu
and Haijiang Wang and Wassim Swaileh
- Abstract要約: 敵対的な例はディープニューラルネットワーク(DNN)の誤分類につながる可能性がある
本稿では,従来の手法よりも強力な逆例を生成する新しい手法を提案する。
攻撃成功率100% (ASR) の逆例を, より小さい摂動のみで確実に生成することができる。
- 参考スコア(独自算出の注目度): 6.7943676146532885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although deep neural networks (DNNs) have achieved success in many
application fields, it is still vulnerable to imperceptible adversarial
examples that can lead to misclassification of DNNs easily. To overcome this
challenge, many defensive methods are proposed. Indeed, a powerful adversarial
example is a key benchmark to measure these defensive mechanisms. In this
paper, we propose a novel method (TEAM, Taylor Expansion-Based Adversarial
Methods) to generate more powerful adversarial examples than previous methods.
The main idea is to craft adversarial examples by minimizing the confidence of
the ground-truth class under untargeted attacks or maximizing the confidence of
the target class under targeted attacks. Specifically, we define the new
objective functions that approximate DNNs by using the second-order Taylor
expansion within a tiny neighborhood of the input. Then the Lagrangian
multiplier method is used to obtain the optimize perturbations for these
objective functions. To decrease the amount of computation, we further
introduce the Gauss-Newton (GN) method to speed it up. Finally, the
experimental result shows that our method can reliably produce adversarial
examples with 100% attack success rate (ASR) while only by smaller
perturbations. In addition, the adversarial example generated with our method
can defeat defensive distillation based on gradient masking.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は多くのアプリケーション分野で成功しているが、DNNの誤分類に繋がる非知覚的な敵の例には依然として弱い。
この課題を克服するために、多くの防御手法が提案されている。
実際、強力な敵対的な例は、これらの防御メカニズムを測定するための重要なベンチマークである。
本稿では,従来の手法よりも強力な逆例を生成する新しい手法(TEAM, Taylor Expansion-based Adversarial Methods)を提案する。
主な目的は、攻撃対象の攻撃対象クラスに対する信頼度を最小にしたり、攻撃対象クラスに対する信頼度を最大化することである。
具体的には、入力の小さな近傍の2階テイラー展開を用いてDNNを近似する新たな目的関数を定義する。
次に、これらの目的関数の最適化摂動を得るためにラグランジュ乗算法を用いる。
計算量を削減するため,Gauss-Newton (GN)法を導入して高速化する。
最後に, 実験結果から, 100%攻撃成功率 (ASR) の逆例を, より小さい摂動のみで確実に生成できることが示唆された。
また,本手法により生成した逆例は,勾配マスキングに基づく防御蒸留を破ることができる。
関連論文リスト
- AdvDiff: Generating Unrestricted Adversarial Examples using Diffusion Models [7.406040859734522]
制限のない敵攻撃は、深層学習モデルや敵防衛技術に深刻な脅威をもたらす。
以前の攻撃法は、しばしば生成モデルのサンプリングに投影された勾配(PGD)を直接注入する。
本稿では,拡散モデルを用いた非制限逆例を生成するAdvDiffと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T03:10:02Z) - Adversarial Example Defense via Perturbation Grading Strategy [17.36107815256163]
ディープニューラルネットワークは多くの分野で広く使われている。
敵の例は小さな摂動を持ち、DNNの正しい判断を非常に誤解させる。
研究者はDNNを保護するための様々な防御方法を提案している。
本稿では,入力例の摂動を段階的に評価することにより,異なる強度の対角的摂動に対して異なる防御戦略を割り当てる。
論文 参考訳(メタデータ) (2022-12-16T08:35:21Z) - A Large-scale Multiple-objective Method for Black-box Attack against
Object Detection [70.00150794625053]
我々は、真正の確率を最小化し、偽正の確率を最大化し、より多くの偽正の物体が新しい真正の有界箱を作らないようにする。
我々は、GARSDCと呼ばれるランダム・サブセット選択とディバイド・アンド・コンカーによる標準的な遺伝的アルゴリズムを拡張し、効率を大幅に改善する。
最先端攻撃法と比較して、GARSDCはmAPでは平均12.0、広範囲な実験ではクエリでは約1000倍減少する。
論文 参考訳(メタデータ) (2022-09-16T08:36:42Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - Improving Transformation-based Defenses against Adversarial Examples
with First-order Perturbations [16.346349209014182]
研究によると、ニューラルネットワークは敵の攻撃を受けやすい。
これにより、ニューラルネットワークベースのインテリジェントシステムに対する潜在的な脅威が露呈する。
本稿では, 対向性強靭性を改善するために, 対向性摂動に対処する手法を提案する。
論文 参考訳(メタデータ) (2021-03-08T06:27:24Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - GreedyFool: Distortion-Aware Sparse Adversarial Attack [138.55076781355206]
現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
論文 参考訳(メタデータ) (2020-10-26T17:59:07Z) - TEAM: An Taylor Expansion-Based Method for Generating Adversarial
Examples [20.589548370628535]
ディープニューラル(DNN)は多くの分野で成功している。
対人訓練は、堅牢性を改善するための最も効果的な方法の1つである。
DNNを効果的に正規化し、モデルの欠陥を改善することができる。
論文 参考訳(メタデータ) (2020-01-23T07:03:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。