論文の概要: Generalizing Universal Adversarial Attacks Beyond Additive Perturbations
- arxiv url: http://arxiv.org/abs/2010.07788v2
- Date: Thu, 29 Oct 2020 18:20:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 03:43:18.084972
- Title: Generalizing Universal Adversarial Attacks Beyond Additive Perturbations
- Title(参考訳): 付加的摂動を超えた普遍的敵攻撃の一般化
- Authors: Yanghao Zhang, Wenjie Ruan, Fu Wang, Xiaowei Huang
- Abstract要約: また,非付加摂動により,普遍的対向攻撃が達成できることが示唆された。
本稿では,GUAPと呼ばれる,統一的かつフレキシブルな汎用攻撃フレームワークを提案する。
CIFAR-10とImageNetデータセットを6つのディープニューラルネットワークモデルで実験する。
- 参考スコア(独自算出の注目度): 8.72462752199025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The previous study has shown that universal adversarial attacks can fool deep
neural networks over a large set of input images with a single human-invisible
perturbation. However, current methods for universal adversarial attacks are
based on additive perturbation, which cause misclassification when the
perturbation is directly added to the input images. In this paper, for the
first time, we show that a universal adversarial attack can also be achieved
via non-additive perturbation (e.g., spatial transformation). More importantly,
to unify both additive and non-additive perturbations, we propose a novel
unified yet flexible framework for universal adversarial attacks, called GUAP,
which is able to initiate attacks by additive perturbation, non-additive
perturbation, or the combination of both. Extensive experiments are conducted
on CIFAR-10 and ImageNet datasets with six deep neural network models including
GoogleLeNet, VGG16/19, ResNet101/152, and DenseNet121. The empirical
experiments demonstrate that GUAP can obtain up to 90.9% and 99.24% successful
attack rates on CIFAR-10 and ImageNet datasets, leading to over 15% and 19%
improvements respectively than current state-of-the-art universal adversarial
attacks. The code for reproducing the experiments in this paper is available at
https://github.com/TrustAI/GUAP.
- Abstract(参考訳): 前回の研究では、人間の目に見えない摂動を持つ大量の入力画像に対して、普遍的な敵対攻撃がディープニューラルネットワークを騙すことが示されている。
しかし、現在の普遍的敵攻撃法は加法摂動に基づいており、入力画像に摂動を直接付加した場合に誤分類を引き起こす。
本稿では,非加法的摂動(例えば空間変換)によって,普遍的な逆攻撃も達成できることを初めて示す。
さらに,加法摂動と非加法摂動を一体化するために,加法摂動,非加法摂動,あるいは両者の組み合わせによって攻撃を開始することができるGUAPと呼ばれる,統一的で柔軟な普遍的敵攻撃フレームワークを提案する。
CIFAR-10とImageNetデータセットに対して、GoogleLeNet、VGG16/19、ResNet101/152、DenseNet121を含む6つのディープニューラルネットワークモデルによる大規模な実験が行われた。
実証実験により、GUAPはCIFAR-10とImageNetのデータセットに対する攻撃率を最大90.9%、99.24%まで向上できることが示された。
実験を再現するためのコードはhttps://github.com/TrustAI/GUAP.comで公開されている。
関連論文リスト
- Imperceptible Adversarial Attack via Invertible Neural Networks [9.190559753030001]
Invertible Neural Networks (AdvINN) を用いた新しい逆襲攻撃法を導入し, 頑健で知覚不能な逆襲例を生成する。
CIFAR-10, CIFAR-100, ImageNet-1Kでの実験により, 提案したAdvINN法は非知覚の逆画像を生成することができることを示した。
論文 参考訳(メタデータ) (2022-11-28T03:29:39Z) - Enhancing the Self-Universality for Transferable Targeted Attacks [88.6081640779354]
本手法は,高次対角的摂動が標的攻撃に対してより伝達しやすい傾向にあることを示す。
異なる画像上の摂動を最適化する代わりに、異なる領域を最適化して自己ユニバーシティを実現することで、余分なデータを排除することができる。
特徴的類似性欠如により,本手法は,良性画像よりも対向性摂動の特徴が支配的となる。
論文 参考訳(メタデータ) (2022-09-08T11:21:26Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - TnT Attacks! Universal Naturalistic Adversarial Patches Against Deep
Neural Network Systems [15.982408142401072]
ディープニューラルネットワークは、敵対的な入力からの攻撃に対して脆弱であり、最近では、トロイの木馬がモデルの判断を誤解したりハイジャックしたりする。
TnTは、シーン内でTnTでキャプチャされた任意の入力画像は、ネットワーク(未攻撃)を誤認する。
既存の最先端手法よりも高い攻撃成功率を達成するパッチを作成するための攻撃の一般化を示す。
論文 参考訳(メタデータ) (2021-11-19T01:35:10Z) - Real-time Detection of Practical Universal Adversarial Perturbations [3.806971160251168]
ディープニューラルネットワーク(dnn)に対する物理的に実現可能で堅牢な攻撃を可能にするuniversal adversarial perturbation(uaps)
本稿では、UAPのリアルタイム検出を可能にする効率的でスケーラブルなアルゴリズムであるHyperNeuronを提案する。
論文 参考訳(メタデータ) (2021-05-16T03:01:29Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - A Survey On Universal Adversarial Attack [68.1815935074054]
ディープニューラルネットワーク(DNN)は、様々なアプリケーションで顕著な性能を示している。
敵の摂動の攻撃に弱いことが広く知られている。
ユニバーサル敵対的摂動(UAP)は、ほとんどの画像のターゲットDNNをだまします。
論文 参考訳(メタデータ) (2021-03-02T06:35:09Z) - Double Targeted Universal Adversarial Perturbations [83.60161052867534]
本稿では, インスタンス別画像依存摂動と汎用的普遍摂動のギャップを埋めるために, 二重目標普遍摂動(DT-UAP)を導入する。
提案したDTAアルゴリズムの幅広いデータセットに対する有効性を示すとともに,物理攻撃の可能性を示す。
論文 参考訳(メタデータ) (2020-10-07T09:08:51Z) - Evading Deepfake-Image Detectors with White- and Black-Box Attacks [75.13740810603686]
一般的な法医学的アプローチは、ニューラルネットワークを訓練して、実際の合成内容と区別することを示します。
我々は,既存の画像生成装置の約0.95のLOC曲線(AUC)以下の領域を達成できる最先端の分類器に関する5つの攻撃事例研究を開発した。
また、ターゲット分類器にアクセスできないブラックボックス攻撃により、AUCを0.22に削減する。
論文 参考訳(メタデータ) (2020-04-01T17:59:59Z) - Adversarial Attacks on Convolutional Neural Networks in Facial
Recognition Domain [2.4704085162861693]
Deep Neural Network(DNN)分類器を実生活で脆弱にする敵攻撃は、自動運転車、マルウェアフィルター、生体認証システムにおいて深刻な脅威となる。
我々はFast Gradient Sign Methodを適用し、顔画像データセットに摂動を導入し、異なる分類器で出力をテストする。
我々は、最小の敵対的知識を前提に、さまざまなブラックボックス攻撃アルゴリズムを顔画像データセット上に構築する。
論文 参考訳(メタデータ) (2020-01-30T00:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。