論文の概要: Variation Enhanced Attacks Against RRAM-based Neuromorphic Computing
System
- arxiv url: http://arxiv.org/abs/2302.09902v1
- Date: Mon, 20 Feb 2023 10:57:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 15:41:33.425376
- Title: Variation Enhanced Attacks Against RRAM-based Neuromorphic Computing
System
- Title(参考訳): RRAMに基づくニューロモルフィックコンピューティングシステムに対する変動増強攻撃
- Authors: Hao Lv, Bing Li, Lei Zhang, Cheng Liu, Ying Wang
- Abstract要約: 本稿では,異なる攻撃シナリオと目的に対する2種類のハードウェア・アウェア・アタック手法を提案する。
1つ目は、ニューラルネットワークの予測を誤解させるために入力サンプルを摂動させる敵攻撃VADERである。
2つ目は、特定のサンプルがターゲットラベルに分類されるように、ネットワークパラメータ空間を乱す障害注入攻撃(EFI)である。
- 参考スコア(独自算出の注目度): 14.562718993542964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The RRAM-based neuromorphic computing system has amassed explosive interests
for its superior data processing capability and energy efficiency than
traditional architectures, and thus being widely used in many data-centric
applications. The reliability and security issues of the NCS therefore become
an essential problem. In this paper, we systematically investigated the
adversarial threats to the RRAM-based NCS and observed that the RRAM hardware
feature can be leveraged to strengthen the attack effect, which has not been
granted sufficient attention by previous algorithmic attack methods. Thus, we
proposed two types of hardware-aware attack methods with respect to different
attack scenarios and objectives. The first is adversarial attack, VADER, which
perturbs the input samples to mislead the prediction of neural networks. The
second is fault injection attack, EFI, which perturbs the network parameter
space such that a specified sample will be classified to a target label, while
maintaining the prediction accuracy on other samples. Both attack methods
leverage the RRAM properties to improve the performance compared with the
conventional attack methods. Experimental results show that our hardware-aware
attack methods can achieve nearly 100% attack success rate with extremely low
operational cost, while maintaining the attack stealthiness.
- Abstract(参考訳): RRAMベースのニューロモルフィックコンピューティングシステムは、従来のアーキテクチャよりも優れたデータ処理能力とエネルギー効率のために爆発的な関心を集めており、多くのデータ中心のアプリケーションで広く利用されている。
したがって、NCSの信頼性とセキュリティの問題は重要な問題となっている。
本稿では,RRAM ベースの NCS に対する敵対的脅威を系統的に検討し,RRAM のハードウェア機能は攻撃効果を高めるために有効であることを示した。
そこで本研究では,異なる攻撃シナリオと目的に対して2種類のハードウェアアウェアアタック手法を提案する。
1つ目は、ニューラルネットワークの予測を誤解させるために入力サンプルを摂動させる敵攻撃VADERである。
第2の障害注入攻撃(EFI)は、特定のサンプルをターゲットラベルに分類し、他のサンプルの予測精度を維持しつつ、ネットワークパラメータ空間を摂動させる。
どちらのアタック手法も従来のアタック手法と比較してRRAM特性を活用して性能を向上させる。
実験の結果,ハードウェアアウェアアタック手法は,攻撃ステルス性を維持しつつ,極めて低い運用コストで100%のアタック成功率を達成できることがわかった。
関連論文リスト
- The Inherent Adversarial Robustness of Analog In-Memory Computing [2.435021773579434]
Deep Neural Network(DNN)アルゴリズムの重要な課題は、敵の攻撃に対する脆弱性である。
本稿では,位相変化メモリ(PCM)デバイスを用いたAIMCチップ上での予測を実験的に検証する。
ハードウェア・イン・ザ・ループ攻撃を行う際には、さらなる堅牢性も観察される。
論文 参考訳(メタデータ) (2024-11-11T14:29:59Z) - Rethinking Targeted Adversarial Attacks For Neural Machine Translation [56.10484905098989]
本報告では,NMTが標的とする敵攻撃に対して,信頼性の高い攻撃結果をもたらす可能性のある新たな設定を提案する。
新しい設定では、敵の例を作成するためのTWGA(Targeted Word Gradient Adversarial Attack)手法を提案する。
実験の結果,提案手法はNMTシステムに対する敵攻撃に対して忠実な攻撃効果をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-07T10:16:06Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Review-Incorporated Model-Agnostic Profile Injection Attacks on
Recommender Systems [24.60223863559958]
本稿では, R-Trojan という新たな攻撃フレームワークを提案する。このフレームワークは, 攻撃目標を最適化問題として定式化し, それを解決するために, トランスフォーマベース生成対向ネットワーク (GAN) を採用している。
実世界のデータセットの実験では、R-Trojanはブラックボックス設定下で、さまざまな犠牲者RSに対する最先端の攻撃方法を大幅に上回っている。
論文 参考訳(メタデータ) (2024-02-14T08:56:41Z) - DODEM: DOuble DEfense Mechanism Against Adversarial Attacks Towards
Secure Industrial Internet of Things Analytics [8.697883716452385]
I-IoT環境における敵攻撃の検出と軽減のための二重防御機構を提案する。
まず、新規性検出アルゴリズムを用いて、サンプルに対して逆攻撃があるかどうかを検知する。
攻撃があった場合、敵の再訓練はより堅牢なモデルを提供する一方、通常のサンプルに対して標準的な訓練を適用する。
論文 参考訳(メタデータ) (2023-01-23T22:10:40Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Adversarial Poisoning Attacks and Defense for General Multi-Class Models
Based On Synthetic Reduced Nearest Neighbors [14.968442560499753]
最先端の機械学習モデルは、データ中毒攻撃に弱い。
本論文では,データのマルチモダリティに基づく新しいモデルフリーラベルフリップ攻撃を提案する。
第二に、SRNN(Synthetic reduced Nearest Neighbor)モデルに基づく新しい防御技術を提案する。
論文 参考訳(メタデータ) (2021-02-11T06:55:40Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。