論文の概要: Variation Enhanced Attacks Against RRAM-based Neuromorphic Computing
System
- arxiv url: http://arxiv.org/abs/2302.09902v1
- Date: Mon, 20 Feb 2023 10:57:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 15:41:33.425376
- Title: Variation Enhanced Attacks Against RRAM-based Neuromorphic Computing
System
- Title(参考訳): RRAMに基づくニューロモルフィックコンピューティングシステムに対する変動増強攻撃
- Authors: Hao Lv, Bing Li, Lei Zhang, Cheng Liu, Ying Wang
- Abstract要約: 本稿では,異なる攻撃シナリオと目的に対する2種類のハードウェア・アウェア・アタック手法を提案する。
1つ目は、ニューラルネットワークの予測を誤解させるために入力サンプルを摂動させる敵攻撃VADERである。
2つ目は、特定のサンプルがターゲットラベルに分類されるように、ネットワークパラメータ空間を乱す障害注入攻撃(EFI)である。
- 参考スコア(独自算出の注目度): 14.562718993542964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The RRAM-based neuromorphic computing system has amassed explosive interests
for its superior data processing capability and energy efficiency than
traditional architectures, and thus being widely used in many data-centric
applications. The reliability and security issues of the NCS therefore become
an essential problem. In this paper, we systematically investigated the
adversarial threats to the RRAM-based NCS and observed that the RRAM hardware
feature can be leveraged to strengthen the attack effect, which has not been
granted sufficient attention by previous algorithmic attack methods. Thus, we
proposed two types of hardware-aware attack methods with respect to different
attack scenarios and objectives. The first is adversarial attack, VADER, which
perturbs the input samples to mislead the prediction of neural networks. The
second is fault injection attack, EFI, which perturbs the network parameter
space such that a specified sample will be classified to a target label, while
maintaining the prediction accuracy on other samples. Both attack methods
leverage the RRAM properties to improve the performance compared with the
conventional attack methods. Experimental results show that our hardware-aware
attack methods can achieve nearly 100% attack success rate with extremely low
operational cost, while maintaining the attack stealthiness.
- Abstract(参考訳): RRAMベースのニューロモルフィックコンピューティングシステムは、従来のアーキテクチャよりも優れたデータ処理能力とエネルギー効率のために爆発的な関心を集めており、多くのデータ中心のアプリケーションで広く利用されている。
したがって、NCSの信頼性とセキュリティの問題は重要な問題となっている。
本稿では,RRAM ベースの NCS に対する敵対的脅威を系統的に検討し,RRAM のハードウェア機能は攻撃効果を高めるために有効であることを示した。
そこで本研究では,異なる攻撃シナリオと目的に対して2種類のハードウェアアウェアアタック手法を提案する。
1つ目は、ニューラルネットワークの予測を誤解させるために入力サンプルを摂動させる敵攻撃VADERである。
第2の障害注入攻撃(EFI)は、特定のサンプルをターゲットラベルに分類し、他のサンプルの予測精度を維持しつつ、ネットワークパラメータ空間を摂動させる。
どちらのアタック手法も従来のアタック手法と比較してRRAM特性を活用して性能を向上させる。
実験の結果,ハードウェアアウェアアタック手法は,攻撃ステルス性を維持しつつ,極めて低い運用コストで100%のアタック成功率を達成できることがわかった。
関連論文リスト
- Review-Incorporated Model-Agnostic Profile Injection Attacks on
Recommender Systems [24.60223863559958]
本稿では, R-Trojan という新たな攻撃フレームワークを提案する。このフレームワークは, 攻撃目標を最適化問題として定式化し, それを解決するために, トランスフォーマベース生成対向ネットワーク (GAN) を採用している。
実世界のデータセットの実験では、R-Trojanはブラックボックス設定下で、さまざまな犠牲者RSに対する最先端の攻撃方法を大幅に上回っている。
論文 参考訳(メタデータ) (2024-02-14T08:56:41Z) - Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification [0.0]
IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
論文 参考訳(メタデータ) (2023-01-30T18:00:28Z) - DODEM: DOuble DEfense Mechanism Against Adversarial Attacks Towards
Secure Industrial Internet of Things Analytics [8.697883716452385]
I-IoT環境における敵攻撃の検出と軽減のための二重防御機構を提案する。
まず、新規性検出アルゴリズムを用いて、サンプルに対して逆攻撃があるかどうかを検知する。
攻撃があった場合、敵の再訓練はより堅牢なモデルを提供する一方、通常のサンプルに対して標準的な訓練を適用する。
論文 参考訳(メタデータ) (2023-01-23T22:10:40Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Adversarial Poisoning Attacks and Defense for General Multi-Class Models
Based On Synthetic Reduced Nearest Neighbors [14.968442560499753]
最先端の機械学習モデルは、データ中毒攻撃に弱い。
本論文では,データのマルチモダリティに基づく新しいモデルフリーラベルフリップ攻撃を提案する。
第二に、SRNN(Synthetic reduced Nearest Neighbor)モデルに基づく新しい防御技術を提案する。
論文 参考訳(メタデータ) (2021-02-11T06:55:40Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。