論文の概要: Is Approximation Universally Defensive Against Adversarial Attacks in
Deep Neural Networks?
- arxiv url: http://arxiv.org/abs/2112.01555v1
- Date: Thu, 2 Dec 2021 19:01:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 14:29:51.262067
- Title: Is Approximation Universally Defensive Against Adversarial Attacks in
Deep Neural Networks?
- Title(参考訳): ニューラルネットワークの敵攻撃に対する近似は普遍的に防御されるか?
- Authors: Ayesha Siddique, Khaza Anuarul Hoque
- Abstract要約: 本稿では, 最先端の近似乗算器を用いて, 異なる近似DNNアクセラレータ (AxDNN) の逆解析を行う。
以上の結果から,AxDNNに対する敵対攻撃は53%の精度低下を引き起こすが,同一の攻撃は精度低下をほとんど起こさない可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Approximate computing is known for its effectiveness in improvising the
energy efficiency of deep neural network (DNN) accelerators at the cost of
slight accuracy loss. Very recently, the inexact nature of approximate
components, such as approximate multipliers have also been reported successful
in defending adversarial attacks on DNNs models. Since the approximation errors
traverse through the DNN layers as masked or unmasked, this raises a key
research question-can approximate computing always offer a defense against
adversarial attacks in DNNs, i.e., are they universally defensive? Towards
this, we present an extensive adversarial robustness analysis of different
approximate DNN accelerators (AxDNNs) using the state-of-the-art approximate
multipliers. In particular, we evaluate the impact of ten adversarial attacks
on different AxDNNs using the MNIST and CIFAR-10 datasets. Our results
demonstrate that adversarial attacks on AxDNNs can cause 53% accuracy loss
whereas the same attack may lead to almost no accuracy loss (as low as 0.06%)
in the accurate DNN. Thus, approximate computing cannot be referred to as a
universal defense strategy against adversarial attacks.
- Abstract(参考訳): 近似コンピューティングは、深層ニューラルネットワーク(DNN)アクセラレーターのエネルギー効率を少しの精度損失で向上させる効果で知られている。
最近では、近似乗算器のような近似成分の不正確な性質も、DNNモデルに対する敵攻撃の防御に成功していると報告されている。
近似誤差がDNNの層を覆い隠されたり、偽装されたりして横切るため、このことは、DNNの敵攻撃に対して常に防御を提供する重要な研究課題である。
そこで本研究では, 最先端の近似乗算器を用いて, 異なる近似DNN加速器(AxDNN)の対角性解析を行う。
特に,MNISTとCIFAR-10データセットを用いて,異なるAxDNNに対する10の敵攻撃の影響を評価する。
以上の結果から,AxDNNに対する敵対攻撃は53%の精度低下を引き起こすが,同じ攻撃はDNNの精度低下(0.06%以下)をほとんど起こさない可能性が示唆された。
したがって、近似計算は敵の攻撃に対する普遍的防衛戦略とは呼べない。
関連論文リスト
- Exploring DNN Robustness Against Adversarial Attacks Using Approximate Multipliers [1.3820778058499328]
ディープニューラルネットワーク(DNN)は、ヘルスケアや自動運転など、多くの現実世界のアプリケーションで進歩している。
高い計算複雑性と敵攻撃に対する脆弱性は、現在進行中の課題である。
DNN層モデルにおける最先端近似乗算器の高精度な乗算器を均一に置き換えることで、DNNの様々な敵攻撃に対するロバスト性を、実現可能な時間で探索する。
論文 参考訳(メタデータ) (2024-04-17T18:03:12Z) - Robust Overfitting Does Matter: Test-Time Adversarial Purification With FGSM [5.592360872268223]
防衛戦略は通常、特定の敵攻撃法のためにディープニューラルネットワーク(DNN)を訓練し、この種の敵攻撃に対する防御において優れた堅牢性を達成することができる。
しかしながら、不慣れな攻撃モダリティに関する評価を受けると、実証的な証拠はDNNの堅牢性の顕著な劣化を示す。
ほとんどの防衛方法は、DNNの敵の堅牢性を改善するために、クリーンな例の精度を犠牲にすることが多い。
論文 参考訳(メタデータ) (2024-03-18T03:54:01Z) - Not So Robust After All: Evaluating the Robustness of Deep Neural
Networks to Unseen Adversarial Attacks [5.024667090792856]
ディープニューラルネットワーク(DNN)は、分類、認識、予測など、さまざまなアプリケーションで注目を集めている。
従来のDNNの基本的属性は、入力データの修正に対する脆弱性である。
本研究の目的は、敵攻撃に対する現代の防御機構の有効性と一般化に挑戦することである。
論文 参考訳(メタデータ) (2023-08-12T05:21:34Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Security-Aware Approximate Spiking Neural Networks [0.0]
AxSNNの構造的パラメータと近似レベルを2塩基勾配と2つのニューロモルフィックアタックで解析した。
我々は,AxSNNのセキュリティのための2つの新しい防御手法,すなわち精度スケーリングと近似量子化対応フィルタリングを提案する。
以上の結果から,AxSNNはAccSNNよりも敵攻撃を受けやすいが,精度スケーリングとAQFはAxSNNの堅牢性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-01-12T19:23:15Z) - A Mask-Based Adversarial Defense Scheme [3.759725391906588]
敵対的攻撃はディープニューラルネットワーク(DNN)の機能と精度を妨げる
敵攻撃による負の効果を軽減するため,DNNのためのMask-based Adversarial Defense scheme (MAD)を提案する。
論文 参考訳(メタデータ) (2022-04-21T12:55:27Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - Perceptual Adversarial Robustness: Defense Against Unseen Threat Models [58.47179090632039]
敵対的堅牢性の鍵となる課題は、人間の知覚を正確に数学的に特徴づけることの欠如である。
ニューラル・パーセプチュアル・脅威モデルの下で、我々は新しいパーセプチュアル・アタックとディフェンスを開発する。
NPTMは非常に広範であるため、知覚的攻撃に対する知覚的適応訓練(PAT)は、他の多くの種類の敵対的攻撃に対して堅牢性を与える。
論文 参考訳(メタデータ) (2020-06-22T22:40:46Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。