論文の概要: Exposing the Robustness and Vulnerability of Hybrid 8T-6T SRAM Memory
Architectures to Adversarial Attacks in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2011.13392v1
- Date: Thu, 26 Nov 2020 17:08:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 12:15:16.377267
- Title: Exposing the Robustness and Vulnerability of Hybrid 8T-6T SRAM Memory
Architectures to Adversarial Attacks in Deep Neural Networks
- Title(参考訳): ハイブリッド8T-6T SRAMメモリアーキテクチャの深いニューラルネットワークにおける逆攻撃に対するロバスト性と脆弱性
- Authors: Abhishek Moitra and Priyadarshini Panda
- Abstract要約: 6T-SRAMセルによるハイブリッドメモリにおけるビットエラーノイズは、ハイブリッドメモリ構成に基づく決定論的挙動を示す。
本稿では,適切なレイヤとそれに対応するハイブリッドメモリ構成を選択して,必要な手術ノイズを導入する手法を提案する。
ホワイトボックス攻撃に対する再訓練を行なわずに2~8%の対向精度を達成した。
- 参考スコア(独自算出の注目度): 2.729253370269413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning is able to solve a plethora of once impossible problems.
However, they are vulnerable to input adversarial attacks preventing them from
being autonomously deployed in critical applications. Several
algorithm-centered works have discussed methods to cause adversarial attacks
and improve adversarial robustness of a Deep Neural Network (DNN). In this
work, we elicit the advantages and vulnerabilities of hybrid 6T-8T memories to
improve the adversarial robustness and cause adversarial attacks on DNNs. We
show that bit-error noise in hybrid memories due to erroneous 6T-SRAM cells
have deterministic behaviour based on the hybrid memory configurations (V_DD,
8T-6T ratio). This controlled noise (surgical noise) can be strategically
introduced into specific DNN layers to improve the adversarial accuracy of
DNNs. At the same time, surgical noise can be carefully injected into the DNN
parameters stored in hybrid memory to cause adversarial attacks. To improve the
adversarial robustness of DNNs using surgical noise, we propose a methodology
to select appropriate DNN layers and their corresponding hybrid memory
configurations to introduce the required surgical noise. Using this, we achieve
2-8% higher adversarial accuracy without re-training against white-box attacks
like FGSM, than the baseline models (with no surgical noise introduced). To
demonstrate adversarial attacks using surgical noise, we design a novel,
white-box attack on DNN parameters stored in hybrid memory banks that causes
the DNN inference accuracy to drop by more than 60% with over 90% confidence
value. We support our claims with experiments, performed using benchmark
datasets-CIFAR10 and CIFAR100 on VGG19 and ResNet18 networks.
- Abstract(参考訳): ディープラーニングは、かつて不可能だった多くの問題を解決することができる。
しかし、それらは入力敵の攻撃に対して脆弱であり、重要なアプリケーションに自律的に配備できない。
アルゴリズム中心のいくつかの研究は、敵対的攻撃を引き起こし、ディープニューラルネットワーク(dnn)の敵対的ロバスト性を改善する方法を議論している。
本研究では,ハイブリッド6T-8Tメモリのアドバンテージと脆弱性を抽出し,DNNに対する敵対的攻撃を引き起こす。
ハイブリッドメモリ構成(V_DD, 8T-6T比)に基づいて, 誤り6T-SRAMセルによるハイブリットメモリのビットエラーノイズが決定的挙動を示す。
この制御ノイズ(サージカルノイズ)は特定のDNN層に戦略的に導入することができ、DNNの対角精度を向上させることができる。
同時に、ハイブリッドメモリに格納されたDNNパラメータに外科的ノイズを慎重に注入することで、敵の攻撃を引き起こす。
外科的ノイズを用いたDNNの対向的ロバスト性を改善するために,適切なDNN層とそれに対応するハイブリッドメモリ構成を選択して必要な手術ノイズを導入する手法を提案する。
これを用いて,FGSMなどのホワイトボックス攻撃に対して,ベースラインモデルよりも2~8%高い対向精度を達成した(手術ノイズを伴わない)。
そこで本研究では, ハイブリッドメモリバンクに格納されたdnnパラメータに対する新しいホワイトボックス攻撃法を考案し, 90%以上の信頼度で, dnn推定精度が60%以上低下することを示した。
VGG19 と ResNet18 ネットワーク上でベンチマークデータセット-CIFAR10 と CIFAR100 を用いて実験を行った。
関連論文リスト
- VQUNet: Vector Quantization U-Net for Defending Adversarial Atacks by Regularizing Unwanted Noise [0.5755004576310334]
本稿では,新たなノイズ低減手法であるベクトル量子化U-Net(VQUNet)を導入し,対向雑音を低減し,高忠実度でデータを再構成する。
VQUNetは、ノイズ低減とデータ再構成の両方のためのマルチスケール階層構造を通して、離散潜在表現学習を特徴とする。
これは、Fashion-MNISTとCIFAR10データセットの両方に対する様々な敵攻撃の下で、最先端のノイズ低減ベースの防衛手法より優れている。
論文 参考訳(メタデータ) (2024-06-05T10:10:03Z) - Improving Robustness Against Adversarial Attacks with Deeply Quantized
Neural Networks [0.5849513679510833]
ディープニューラルネットワーク(DNN)の欠点は、入力にわずかな摂動を加えることで騙されるため、敵の攻撃に対する脆弱性である。
本稿では,対戦型ブラックボックス攻撃に対して堅牢な小型DNNモデルを考案し,自動量子化学習フレームワークを用いて訓練した結果を報告する。
論文 参考訳(メタデータ) (2023-04-25T13:56:35Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks [55.92475932732775]
本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-29T22:30:32Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - A Mask-Based Adversarial Defense Scheme [3.759725391906588]
敵対的攻撃はディープニューラルネットワーク(DNN)の機能と精度を妨げる
敵攻撃による負の効果を軽減するため,DNNのためのMask-based Adversarial Defense scheme (MAD)を提案する。
論文 参考訳(メタデータ) (2022-04-21T12:55:27Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Efficiency-driven Hardware Optimization for Adversarially Robust Neural
Networks [3.125321230840342]
効率性の高いハードウェア最適化を通じて、Deep Neural Networks(DNN)の対比ロバスト性に対処する方法に焦点を当てます。
そのようなアプローチの1つは、低電力運転をもたらす供給スケーリング(Vdd)を可能にするハイブリッド6T-8TセルによるおよそのデジタルCMOSメモリです。
別のメモリ最適化アプローチは、低エネルギーと面積の要件でマトリックス乗算(MVM)を効率的に実行する記念的なクロスバーの作成を含む。
論文 参考訳(メタデータ) (2021-05-09T19:26:25Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - QUANOS- Adversarial Noise Sensitivity Driven Hybrid Quantization of
Neural Networks [3.2242513084255036]
QUINOSは、逆雑音感度(ANS)に基づく層特異的ハイブリッド量子化を行うフレームワークである
CIFAR10, CIFAR100データセットを用いた実験により, QUINOSは対向ロバスト性の観点から, 均一に量子化された8ビット精度のベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2020-04-22T15:56:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。