論文の概要: Universalization of any adversarial attack using very few test examples
- arxiv url: http://arxiv.org/abs/2005.08632v2
- Date: Fri, 28 Oct 2022 17:37:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 22:44:17.699811
- Title: Universalization of any adversarial attack using very few test examples
- Title(参考訳): ごく少数の試験例を用いた敵攻撃の普遍化
- Authors: Sandesh Kamath, Amit Deshpande, K V Subrahmanyam, Vineeth N
Balasubramanian
- Abstract要約: 本稿では,任意の入力依存型対角攻撃に対処し,ユニバーサルアタックを構築するための単純な普遍化手法を提案する。
入力依存逆方向のトップ特異ベクトルは, 有効かつ単純なユニバーサル逆方向攻撃を与えることを示す。
- 参考スコア(独自算出の注目度): 21.664470275289403
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning models are known to be vulnerable not only to input-dependent
adversarial attacks but also to input-agnostic or universal adversarial
attacks. Dezfooli et al. \cite{Dezfooli17,Dezfooli17anal} construct universal
adversarial attack on a given model by looking at a large number of training
data points and the geometry of the decision boundary near them. Subsequent
work \cite{Khrulkov18} constructs universal attack by looking only at test
examples and intermediate layers of the given model. In this paper, we propose
a simple universalization technique to take any input-dependent adversarial
attack and construct a universal attack by only looking at very few adversarial
test examples. We do not require details of the given model and have negligible
computational overhead for universalization. We theoretically justify our
universalization technique by a spectral property common to many
input-dependent adversarial perturbations, e.g., gradients, Fast Gradient Sign
Method (FGSM) and DeepFool. Using matrix concentration inequalities and
spectral perturbation bounds, we show that the top singular vector of
input-dependent adversarial directions on a small test sample gives an
effective and simple universal adversarial attack. For VGG16 and VGG19 models
trained on ImageNet, our simple universalization of Gradient, FGSM, and
DeepFool perturbations using a test sample of 64 images gives fooling rates
comparable to state-of-the-art universal attacks \cite{Dezfooli17,Khrulkov18}
for reasonable norms of perturbation. Code available at
https://github.com/ksandeshk/svd-uap .
- Abstract(参考訳): 深層学習モデルは、入力依存的敵攻撃だけでなく、入力非依存的または普遍的敵攻撃にも脆弱であることが知られている。
Dezfooliなど。
\cite{Dezfooli17,Dezfooli17anal} は、多数のトレーニングデータポイントとそれらの近傍の決定境界の幾何学を見て、与えられたモデルに対する普遍的な敵攻撃を構築する。
その後の作業 \cite{Khrulkov18} は、与えられたモデルのテスト例と中間層だけを見て普遍的な攻撃を構築する。
本稿では,任意の入力依存的敵意攻撃を取り込んで,ごく少数の敵意テスト例のみを見てユニバーサルアタックを構築するための簡易な普遍化手法を提案する。
与えられたモデルの詳細は必要とせず、普遍化のための計算オーバーヘッドも無視できる。
理論的には、多くの入力依存逆摂動に共通するスペクトル特性、例えば勾配、高速勾配符号法(FGSM)、ディープフールにより、普遍化手法を正当化する。
行列濃度の不等式とスペクトル摂動境界を用いて、小さなテストサンプル上の入力依存逆方向のトップ特異ベクトルが有効で単純な普遍逆攻撃を与えることを示す。
ImageNetでトレーニングされたVGG16およびVGG19モデルでは、64枚の画像の試験サンプルを用いたGradient、FGSM、DeepFool摂動の単純な普遍化は、摂動の合理的な規範に対して、最先端の普遍攻撃に匹敵する愚行率を与える。
コードはhttps://github.com/ksandeshk/svd-uap。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Advancing Adversarial Robustness Through Adversarial Logit Update [10.041289551532804]
敵の訓練と敵の浄化は最も広く認知されている防衛戦略の一つである。
そこで本稿では,新たな原則であるALU(Adversarial Logit Update)を提案する。
本手法は,幅広い敵攻撃に対する最先端手法と比較して,優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-29T07:13:31Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - RamBoAttack: A Robust Query Efficient Deep Neural Network Decision
Exploit [9.93052896330371]
本研究では,局所的な最小値の侵入を回避し,ノイズ勾配からのミスダイレクトを回避できる,堅牢なクエリ効率の高い攻撃法を開発した。
RamBoAttackは、敵クラスとターゲットクラスで利用可能な異なるサンプルインプットに対して、より堅牢である。
論文 参考訳(メタデータ) (2021-12-10T01:25:24Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Generalizing Adversarial Examples by AdaBelief Optimizer [6.243028964381449]
本稿では,AdaBelief反復高速勾配符号法を提案し,その逆例を一般化する。
提案手法は,最先端の攻撃手法と比較して,ホワイトボックス設定における敵例を効果的に生成することができる。
転送速度は、最新の攻撃方法よりも7%-21%高いです。
論文 参考訳(メタデータ) (2021-01-25T07:39:16Z) - Untargeted, Targeted and Universal Adversarial Attacks and Defenses on
Time Series [0.0]
我々は,UCR時系列データセットに対して,対象外,対象外,普遍的敵攻撃を行った。
これらの攻撃に対して,ディープラーニングに基づく時系列分類モデルが脆弱であることを示す。
また、トレーニングデータのごく一部しか必要としないため、普遍的敵攻撃は優れた一般化特性を有することを示す。
論文 参考訳(メタデータ) (2021-01-13T13:00:51Z) - Decision-based Universal Adversarial Attack [55.76371274622313]
ブラックボックス設定では、現在の普遍的敵攻撃法は代用モデルを用いて摂動を生成する。
効率的な決定に基づくユニバーサルアタック(DUAttack)を提案する。
DUAttackの有効性は、他の最先端攻撃との比較によって検証される。
論文 参考訳(メタデータ) (2020-09-15T12:49:03Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Bias-based Universal Adversarial Patch Attack for Automatic Check-out [59.355948824578434]
逆の例は、ディープニューラルネットワーク(DNN)を簡単に誤解させる、知覚不能な摂動を持つ入力である。
既存の戦略は強力な一般化能力を持つ敵パッチを生成できなかった。
本稿では,強い一般化能力を持つクラス非依存の普遍的敵パッチを生成するためのバイアスベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-19T07:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。