論文の概要: Sparsity Turns Adversarial: Energy and Latency Attacks on Deep Neural
Networks
- arxiv url: http://arxiv.org/abs/2006.08020v3
- Date: Mon, 14 Sep 2020 20:04:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 10:10:36.838060
- Title: Sparsity Turns Adversarial: Energy and Latency Attacks on Deep Neural
Networks
- Title(参考訳): sparsityが逆境に - ディープニューラルネットワークに対するエネルギーとレイテンシ攻撃
- Authors: Sarada Krithivasan, Sanchari Sen, Anand Raghunathan
- Abstract要約: ディープニューラルネットワーク(DNN)のアドリアックが深刻な脆弱性を露呈
そこで本研究では,DNNの内部アクティベーション値のスパシティを低減するために,DNNの入力を逆向きに修正するスポーシティアタックを提案し,実証する。
我々は、敵対的スパシティ攻撃のホワイトボックス版とブラックボックス版の両方をローンチし、アクティベーション・スパシティーを最大1.82倍まで減少させることを示した。
- 参考スコア(独自算出の注目度): 3.9193443389004887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks have exposed serious vulnerabilities in Deep Neural
Networks (DNNs) through their ability to force misclassifications through
human-imperceptible perturbations to DNN inputs. We explore a new direction in
the field of adversarial attacks by suggesting attacks that aim to degrade the
computational efficiency of DNNs rather than their classification accuracy.
Specifically, we propose and demonstrate sparsity attacks, which adversarial
modify a DNN's inputs so as to reduce sparsity (or the presence of zero values)
in its internal activation values. In resource-constrained systems, a wide
range of hardware and software techniques have been proposed that exploit
sparsity to improve DNN efficiency. The proposed attack increases the execution
time and energy consumption of sparsity-optimized DNN implementations, raising
concern over their deployment in latency and energy-critical applications.
We propose a systematic methodology to generate adversarial inputs for
sparsity attacks by formulating an objective function that quantifies the
network's activation sparsity, and minimizing this function using iterative
gradient-descent techniques. We launch both white-box and black-box versions of
adversarial sparsity attacks on image recognition DNNs and demonstrate that
they decrease activation sparsity by up to 1.82x. We also evaluate the impact
of the attack on a sparsity-optimized DNN accelerator and demonstrate
degradations up to 1.59x in latency, and also study the performance of the
attack on a sparsity-optimized general-purpose processor. Finally, we evaluate
defense techniques such as activation thresholding and input quantization and
demonstrate that the proposed attack is able to withstand them, highlighting
the need for further efforts in this new direction within the field of
adversarial machine learning.
- Abstract(参考訳): 敵対的攻撃は、DNN入力に対する人間の知覚できない摂動を通じて誤分類を強制する能力を通じて、ディープニューラルネットワーク(DNN)の深刻な脆弱性を露呈している。
分類精度よりもDNNの計算効率を低下させることを目的とした攻撃を提案することで、敵攻撃の分野における新たな方向を探る。
具体的には,内部アクティベーション値のスパーシティ(あるいはゼロ値の存在)を低減するために,dnnの入力を敵が修正するスパーシティ攻撃を提案する。
資源制約のあるシステムでは、DNN効率を改善するために空間性を利用する幅広いハードウェアとソフトウェア技術が提案されている。
提案した攻撃により、スパシティ最適化DNN実装の実行時間とエネルギー消費が増加し、レイテンシやエネルギークリティカルなアプリケーションへのデプロイに対する懸念が高まる。
本研究では,ネットワークの活性化スパーシティを定量化する目的関数を定式化し,この関数を反復的勾配拡散法を用いて最小化する手法を提案する。
我々は、画像認識用DNNに対して、ホワイトボックスとブラックボックスの双方を攻撃し、アクティベーション空間を最大1.82倍まで減少させることを示した。
また,sparsity最適化dnn加速器に対する攻撃の影響を評価し,最大1.59倍のレイテンシ低下を示すとともに,sparsity最適化汎用プロセッサに対する攻撃性能について検討した。
最後に,アクティベーションしきい値設定や入力量子化などの防御技術を評価し,提案手法がそれに耐えられることを示す。
関連論文リスト
- SafeLight: Enhancing Security in Optical Convolutional Neural Network Accelerators [2.9699290794642366]
ハードウェアトロイの木馬(HT)攻撃は、光学ニューラルネットワーク(ONN)プラットフォームのパフォーマンスとセキュリティを損なう可能性がある。
我々は、HTsが最先端の非コヒーレントANN加速器においてマイクロリング共振器(MR)を妥協する方法を示す。
我々は,これらの攻撃に対するONN加速器のロバスト性を高める手法を提案し,その精度低下を効果的に回復する方法を示す。
論文 参考訳(メタデータ) (2024-11-22T20:32:32Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - DNNShield: Dynamic Randomized Model Sparsification, A Defense Against
Adversarial Machine Learning [2.485182034310304]
本稿では,ハードウェアによる機械学習攻撃に対する防御手法を提案する。
DNNSHIELDは、相手入力の信頼度に応じて応答の強さに適応する。
VGG16は86%,ResNet50は88%であった。
論文 参考訳(メタデータ) (2022-07-31T19:29:44Z) - Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks [55.92475932732775]
本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-29T22:30:32Z) - 2-in-1 Accelerator: Enabling Random Precision Switch for Winning Both
Adversarial Robustness and Efficiency [26.920864182619844]
DNN加速器の対向的堅牢性と効率の両立を目的とした2-in-1加速器を提案する。
具体的には、まず、DNNを敵攻撃から効果的に防御できる乱精度スイッチ(RPS)アルゴリズムを提案する。
さらに,(1)新しい精度・スケール可能なユニットアーキテクチャを特徴とする,新しい精度・スケール可能なアクセラレーションを提案する。
論文 参考訳(メタデータ) (2021-09-11T08:51:01Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Hardware Accelerator for Adversarial Attacks on Deep Learning Neural
Networks [7.20382137043754]
強靭な物理的摂動を生成するために, 対向攻撃ネットワークアルゴリズムのクラスが提案されている。
本稿では,メムリスタクロスバーアレーをベースとした敵攻撃用ハードウェアアクセラレータを提案する。
論文 参考訳(メタデータ) (2020-08-03T21:55:41Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。