論文の概要: PowerGAN: A Machine Learning Approach for Power Side-Channel Attack on
Compute-in-Memory Accelerators
- arxiv url: http://arxiv.org/abs/2304.11056v2
- Date: Sat, 27 May 2023 18:06:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 00:51:10.069925
- Title: PowerGAN: A Machine Learning Approach for Power Side-Channel Attack on
Compute-in-Memory Accelerators
- Title(参考訳): powergan:compute-in-memoryacceleratorのパワーサイドチャネル攻撃のための機械学習アプローチ
- Authors: Ziyu Wang, Yuting Wu, Yongmo Park, Sangmin Yoo, Xinxin Wang, Jason K.
Eshraghian, and Wei D. Lu
- Abstract要約: 本稿では、GAN(Generative Adversarial Network)を用いた機械学習による攻撃手法を実証し、データ再構成を強化する。
その結果,攻撃手法はアナログCIM加速器の電力リークによるユーザ入力の再構築に有効であることが示唆された。
本研究は、アナログCIMアクセラレーターにおける潜在的なセキュリティ脆弱性を強調し、そのようなシステムにおけるユーザプライバシを侵害するためにGANを使用することに対する認識を高める。
- 参考スコア(独自算出の注目度): 10.592555190999537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Analog compute-in-memory (CIM) systems are promising for deep neural network
(DNN) inference acceleration due to their energy efficiency and high
throughput. However, as the use of DNNs expands, protecting user input privacy
has become increasingly important. In this paper, we identify a potential
security vulnerability wherein an adversary can reconstruct the user's private
input data from a power side-channel attack, under proper data acquisition and
pre-processing, even without knowledge of the DNN model. We further demonstrate
a machine learning-based attack approach using a generative adversarial network
(GAN) to enhance the data reconstruction. Our results show that the attack
methodology is effective in reconstructing user inputs from analog CIM
accelerator power leakage, even at large noise levels and after countermeasures
are applied. Specifically, we demonstrate the efficacy of our approach on an
example of U-Net inference chip for brain tumor detection, and show the
original magnetic resonance imaging (MRI) medical images can be successfully
reconstructed even at a noise-level of 20% standard deviation of the maximum
power signal value. Our study highlights a potential security vulnerability in
analog CIM accelerators and raises awareness of using GAN to breach user
privacy in such systems.
- Abstract(参考訳): アナログ・コンピュート・イン・メモリ(cim)システムは、エネルギー効率と高スループットのため、ディープニューラルネットワーク(dnn)推論の高速化に有望である。
しかし、DNNの利用が拡大するにつれ、ユーザの入力プライバシー保護がますます重要になっている。
本稿では,dnnモデルの知識がなくても,パワーサイドチャネル攻撃からユーザのプライベート入力データを適切なデータ取得と前処理の下で再構築できる潜在的なセキュリティ脆弱性を明らかにする。
さらに、GAN(Generative Adversarial Network)を用いた機械学習による攻撃手法を実証し、データ再構成を強化する。
提案手法は,大規模な騒音レベルであっても,アナログCIM加速器の電力リークからユーザインプットを再構築する上で有効であることを示す。
具体的には、脳腫瘍検出のためのU-Net推論チップの例に対するアプローチの有効性を実証し、最大出力信号値の20%の標準偏差のノイズレベルにおいても、元の磁気共鳴画像(MRI)の医用画像の再構成に成功したことを示す。
本研究は、アナログCIMアクセラレーターにおける潜在的なセキュリティ脆弱性を強調し、そのようなシステムにおけるユーザプライバシを侵害するためにGANを使用することに対する認識を高める。
関連論文リスト
- The Inherent Adversarial Robustness of Analog In-Memory Computing [2.435021773579434]
Deep Neural Network(DNN)アルゴリズムの重要な課題は、敵の攻撃に対する脆弱性である。
本稿では,位相変化メモリ(PCM)デバイスを用いたAIMCチップ上での予測を実験的に検証する。
ハードウェア・イン・ザ・ループ攻撃を行う際には、さらなる堅牢性も観察される。
論文 参考訳(メタデータ) (2024-11-11T14:29:59Z) - Enhanced Convolution Neural Network with Optimized Pooling and Hyperparameter Tuning for Network Intrusion Detection [0.0]
ネットワーク侵入検知システム(NIDS)のための拡張畳み込みニューラルネットワーク(EnCNN)を提案する。
我々はEnCNNと、ロジスティック回帰、決定木、サポートベクトルマシン(SVM)、ランダムフォレスト、AdaBoost、Votting Ensembleといったアンサンブル手法など、さまざまな機械学習アルゴリズムを比較した。
その結果,EnCNNは検出精度を大幅に向上し,最先端アプローチよりも10%向上した。
論文 参考訳(メタデータ) (2024-09-27T11:20:20Z) - Shielding the Unseen: Privacy Protection through Poisoning NeRF with
Spatial Deformation [59.302770084115814]
本稿では,Neural Radiance Fields(NeRF)モデルの生成機能に対して,ユーザのプライバシを保護する革新的な手法を提案する。
我々の新しい中毒攻撃法は、人間の目では認識できないが、NeRFが正確に3Dシーンを再構築する能力を損なうのに十分強力である観察ビューの変化を誘発する。
我々は、高品質の画像を含む29の現実世界シーンからなる2つの共通のNeRFベンチマークデータセットに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-10-04T19:35:56Z) - Output Feedback Tube MPC-Guided Data Augmentation for Robust, Efficient
Sensorimotor Policy Learning [49.05174527668836]
シミュレーション学習(IL)は、計算コストのかかるモデルベースセンシングと制御アルゴリズムによって提供されるデモから、計算効率のよいセンセータポリシーを生成することができる。
本研究では,ILと出力フィードバック頑健な管モデル予測コントローラを組み合わせることで,実演とデータ拡張戦略を併用し,ニューラルネットワークに基づくセンサモジュレータポリシーを効率的に学習する。
提案手法は,従来のIL法と比較して,実演効率が2桁向上した1つの実演から,ロバストなビズモータポリシーを学習できることを数値的に示す。
論文 参考訳(メタデータ) (2022-10-18T19:59:17Z) - Boosting Adversarial Robustness From The Perspective of Effective Margin
Regularization [58.641705224371876]
ディープニューラルネットワーク(DNN)の敵対的脆弱性は、ここ数年で積極的に研究されている。
本稿では,クロスエントロピー損失のスケール変動特性について検討する。
提案した有効マージン正則化(EMR)は,大きな有効マージンを学習し,標準トレーニングと対向トレーニングの両方において対向的ロバスト性を高めることを示す。
論文 参考訳(メタデータ) (2022-10-11T03:16:56Z) - Enhancing Adversarial Attacks on Single-Layer NVM Crossbar-Based Neural
Networks with Power Consumption Information [0.0]
最先端の機械学習モデルに対する敵対的な攻撃は、ミッションクリティカルな自律システムの安全性とセキュリティに重大な脅威をもたらす。
本稿では、攻撃者が基盤となるハードウェアプラットフォームの消費電力を計測できる場合、機械学習モデルのさらなる脆弱性について考察する。
論文 参考訳(メタデータ) (2022-07-06T15:56:30Z) - Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks [55.92475932732775]
本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-29T22:30:32Z) - Learning-Based Vulnerability Analysis of Cyber-Physical Systems [10.066594071800337]
本研究は,サイバー物理システムの脆弱性解析におけるディープラーニングの利用に焦点を当てる。
我々は,低レベル制御が拡張カルマンフィルタ(ekf)や異常検出器(anomaly detector)などに基づくcpsにおいて広く用いられている制御アーキテクチャを考える。
潜在的なセンシング攻撃が持つ影響を分析することを容易にするため、学習可能な攻撃生成器の開発が目的である。
論文 参考訳(メタデータ) (2021-03-10T06:52:26Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Noise Sensitivity-Based Energy Efficient and Robust Adversary Detection
in Neural Networks [3.125321230840342]
逆の例は、愚かな分類器ネットワークに注意深く浸透した入力であり、一方で人間には変化がない。
本稿では,深層ニューラルネットワーク(DNN)を検出器サブネットワークで拡張する構造化手法を提案する。
本手法は,実例に対する最先端検出器のロバスト性が向上することを示す。
論文 参考訳(メタデータ) (2021-01-05T14:31:53Z) - Noise-Response Analysis of Deep Neural Networks Quantifies Robustness
and Fingerprints Structural Malware [48.7072217216104]
ディープ・ニューラル・ネットワーク(DNN)は構造的マルウェア(すなわち、重みと活性化経路)を持つ
バックドアの検出は一般的に困難であり、既存の検出手法は計算に高価であり、膨大なリソースを必要とする(トレーニングデータへのアクセスなど)。
そこで本研究では,DNNの堅牢性,指紋の非線形性を定量化し,バックドアの検出を可能にする,高速な特徴生成手法を提案する。
実験の結果,既存の手法(秒対秒)よりも高い信頼度でバックドアを正確に検出できることが判明した。
論文 参考訳(メタデータ) (2020-07-31T23:52:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。