論文の概要: Adversarial Parameter Attack on Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2203.10502v1
- Date: Sun, 20 Mar 2022 09:17:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-26 09:22:59.483435
- Title: Adversarial Parameter Attack on Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークにおける逆パラメータ攻撃
- Authors: Lijia Yu and Yihan Wang and Xiao-Shan Gao
- Abstract要約: 本稿では,DNNに対する新たなパラメータ摂動攻撃(逆パラメータ攻撃)を提案する。
DNNのパラメータに対する小さな摂動は、攻撃されたDNNの精度があまり低下しないが、その堅牢性は大幅に低下する。
逆パラメータ攻撃は従来のパラメータ攻撃よりも強く、攻撃がユーザによって認識されるのが難しくなる。
- 参考スコア(独自算出の注目度): 7.78895108256899
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, a new parameter perturbation attack on DNNs, called
adversarial parameter attack, is proposed, in which small perturbations to the
parameters of the DNN are made such that the accuracy of the attacked DNN does
not decrease much, but its robustness becomes much lower. The adversarial
parameter attack is stronger than previous parameter perturbation attacks in
that the attack is more difficult to be recognized by users and the attacked
DNN gives a wrong label for any modified sample input with high probability.
The existence of adversarial parameters is proved. For a DNN $F_{\Theta}$ with
the parameter set $\Theta$ satisfying certain conditions, it is shown that if
the depth of the DNN is sufficiently large, then there exists an adversarial
parameter set $\Theta_a$ for $\Theta$ such that the accuracy of $F_{\Theta_a}$
is equal to that of $F_{\Theta}$, but the robustness measure of $F_{\Theta_a}$
is smaller than any given bound. An effective training algorithm is given to
compute adversarial parameters and numerical experiments are used to
demonstrate that the algorithms are effective to produce high quality
adversarial parameters.
- Abstract(参考訳): 本稿では, DNNに対する新たなパラメータ摂動攻撃(逆パラメータ攻撃)を提案し, DNNのパラメータに対する小さな摂動を, 攻撃されたDNNの精度を低下させることなく, その堅牢性を大幅に低下させる。
逆パラメータ攻撃は,ユーザの認識が困難であり,攻撃されたdnnは,変更したサンプル入力に対して,高い確率で誤ったラベルを与えるという点で,以前のパラメータ摂動攻撃よりも強い。
敵パラメータの存在が証明される。
ある条件を満たすパラメータセット $\theta$ を持つ dnn $f_{\theta}$ に対して、dnn の深さが十分大きいとすると、$f_{\theta_a}$ の精度が$f_{\theta}$ の精度と等しいような逆パラメータセット $\theta_a$ for $\theta$ が存在するが、$f_{\theta_a}$ のロバスト性測度は任意の境界よりも小さいことが示される。
対向パラメータを計算するための効果的なトレーニングアルゴリズムが与えられ、そのアルゴリズムが高品質の対向パラメータを生成するのに有効であることを示す数値実験が用いられる。
関連論文リスト
- $σ$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial Examples [14.17412770504598]
入力摂動の作成には$ell_infty$-normの制約が使用できることを示す。
我々は $sigma$-norm と呼ばれる新しい $ell_infty$-norm 攻撃を提案する。
これは、成功、サイズ、効率の点で競合するすべての敵攻撃を上回っます。
論文 参考訳(メタデータ) (2024-02-02T20:08:11Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Not So Robust After All: Evaluating the Robustness of Deep Neural
Networks to Unseen Adversarial Attacks [5.024667090792856]
ディープニューラルネットワーク(DNN)は、分類、認識、予測など、さまざまなアプリケーションで注目を集めている。
従来のDNNの基本的属性は、入力データの修正に対する脆弱性である。
本研究の目的は、敵攻撃に対する現代の防御機構の有効性と一般化に挑戦することである。
論文 参考訳(メタデータ) (2023-08-12T05:21:34Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack [92.94132883915876]
最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
対向騒音に対するロバスト性を改善するための多くの防御法が提案されている。
敵の強靭さを評価することは 極めて困難であることが分かりました
論文 参考訳(メタデータ) (2021-06-03T01:45:48Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Towards Defending Multiple $\ell_p$-norm Bounded Adversarial
Perturbations via Gated Batch Normalization [120.99395850108422]
既存の敵防衛は、個々の摂動に対するモデル堅牢性を改善するのが一般的である。
最近の手法では、複数の$ell_p$球における敵攻撃に対するモデルロバスト性を改善するが、各摂動型に対するそれらの性能は、まだ十分ではない。
我々は,複数の$ell_pの有界摂動を守るために,摂動不変予測器を逆向きに訓練するGated Batch Normalization (GBN)を提案する。
論文 参考訳(メタデータ) (2020-12-03T02:26:01Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z) - Are L2 adversarial examples intrinsically different? [14.77179227968466]
理論的解析により、本質的に逆例と正規入力を区別できる性質を解明する。
我々は,MNISTで最大99%,CIFARで89%,ImageNetサブセットで最大87%の分類精度を,$L$攻撃に対して達成した。
論文 参考訳(メタデータ) (2020-02-28T03:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。