論文の概要: Power-Based Attacks on Spatial DNN Accelerators
- arxiv url: http://arxiv.org/abs/2108.12579v1
- Date: Sat, 28 Aug 2021 05:25:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:23:13.988135
- Title: Power-Based Attacks on Spatial DNN Accelerators
- Title(参考訳): 空間DNN加速器のパワーベース攻撃
- Authors: Ge Li, Mohit Tiwari, and Michael Orshansky
- Abstract要約: 本稿では,一般的な8ビット数表現を用いた空間加速器の脆弱性について検討する。
複数のプロファイリングフェーズを持つテンプレートベースの新しいDPAは、たった40Kトレースで2D配列を完全に破壊することができる。
- 参考スコア(独自算出の注目度): 11.536650557854324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With proliferation of DNN-based applications, the confidentiality of DNN
model is an important commercial goal. Spatial accelerators, that parallelize
matrix/vector operations, are utilized for enhancing energy efficiency of DNN
computation. Recently, model extraction attacks on simple accelerators, either
with a single processing element or running a binarized network, were
demonstrated using the methodology derived from differential power analysis
(DPA) attack on cryptographic devices. This paper investigates the
vulnerability of realistic spatial accelerators using general, 8-bit, number
representation.
We investigate two systolic array architectures with weight-stationary
dataflow: (1) a 3 $\times$ 1 array for a dot-product operation, and (2) a 3
$\times$ 3 array for matrix-vector multiplication. Both are implemented on the
SAKURA-G FPGA board. We show that both architectures are ultimately vulnerable.
A conventional DPA succeeds fully on the 1D array, requiring 20K power
measurements. However, the 2D array exhibits higher security even with 460K
traces. We show that this is because the 2D array intrinsically entails
multiple MACs simultaneously dependent on the same input. However, we find that
a novel template-based DPA with multiple profiling phases is able to fully
break the 2D array with only 40K traces. Corresponding countermeasures need to
be investigated for spatial DNN accelerators.
- Abstract(参考訳): DNNベースのアプリケーションの普及に伴い、DNNモデルの機密性は重要な商業目標である。
行列/ベクトル演算を並列化する空間加速器は、DNN計算のエネルギー効率を高めるために使用される。
近年,DPA(差分電力解析)による暗号デバイスへの攻撃から導いた手法を用いて,単純なアクセルに対するモデル抽出攻撃を,単一の処理要素やバイナライズされたネットワーク上で行った。
本稿では,一般,8ビット数表現を用いた現実空間加速器の脆弱性について検討する。
本研究では,(1)ドット積演算のための3$\times$ 1配列,(2)行列ベクトル乗算のための3$\times$ 3配列の2つのsystolic配列アーキテクチャについて検討した。
どちらもSAkura-G FPGAボード上に実装されている。
両方のアーキテクチャが最終的に脆弱であることを示します。
従来のDPAは1Dアレイで完全に成功し、20Kの電力測定を必要とする。
しかし、2Dアレイは460Kのトレースでも高いセキュリティを示す。
これは、2D配列が本質的に同じ入力に依存する複数のMACを同時に持つためである。
しかし,複数のプロファイリングフェーズを持つテンプレートベースの新しいDPAは,40Kのトレースしか持たない2次元配列を完全に破壊できることがわかった。
空間的DNN加速器の対応策を検討する必要がある。
関連論文リスト
- TDPP: Two-Dimensional Permutation-Based Protection of Memristive Deep Neural Networks [17.126478919408132]
メムリシブデバイスの不揮発性は、メムリシブクロスバーに保存されたDNN重量を盗難攻撃の可能性に晒す可能性がある。
本稿では、このような攻撃を阻止する2次元置換型保護法(TDPP)を提案する。
論文 参考訳(メタデータ) (2023-10-10T20:22:17Z) - One-Shot Online Testing of Deep Neural Networks Based on Distribution
Shift Detection [0.6091702876917281]
本研究では,1つのテストベクタのみを用いて,暗黙のクロスバー上で高速化されたNNをテストできるエミフォン・ショット・テスト手法を提案する。
私たちのアプローチは、いくつかの大きなトポロジにまたがる100%のフォールトカバレッジを一貫して達成できます。
論文 参考訳(メタデータ) (2023-05-16T11:06:09Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - An efficient and flexible inference system for serving heterogeneous
ensembles of deep neural networks [0.0]
ディープニューラルネットワーク(DNN)のアンサンブルは定性的予測を達成しているが、それらは計算とメモリ集約である。
DNNの柔軟性と効率性を両立させる新しいソフトウェア層を提案する。
論文 参考訳(メタデータ) (2022-08-30T08:05:43Z) - Paraformer: Fast and Accurate Parallel Transformer for
Non-autoregressive End-to-End Speech Recognition [62.83832841523525]
そこで我々はParaformerと呼ばれる高速かつ高精度な並列トランスを提案する。
出力トークンの数を正確に予測し、隠れた変数を抽出する。
10倍以上のスピードアップで、最先端のARトランスフォーマーに匹敵するパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2022-06-16T17:24:14Z) - Density Matrix Renormalization Group with Tensor Processing Units [0.0]
GoogleのProcessing Units(TPU)は、機械学習ワークロードの高速化とスケールアップに特化した集積回路である。
本研究では、局所量子多体ハミルトニアンの基底状態を計算するための強力な数値的アプローチである密度行列再正規化群(DMRG)の高速化とスケールアップにTPUを用いることを実証する。
論文 参考訳(メタデータ) (2022-04-12T10:40:14Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - FORMS: Fine-grained Polarized ReRAM-based In-situ Computation for
Mixed-signal DNN Accelerator [33.19099033687952]
FORMSは、偏極重みを持つ微粒なReRAMベースのDNNアクセラレータである。
ISAACよりも1秒あたりのスループット向上とスピードアップを実現している。
論文 参考訳(メタデータ) (2021-06-16T21:42:08Z) - VersaGNN: a Versatile accelerator for Graph neural networks [81.1667080640009]
我々は,超効率的なサイストリックアレイベースの多用途ハードウェアアクセラレータである textitVersaGNN を提案する。
textitVersaGNNは平均3712$times$ speedup with 1301.25$times$ energy reduction on CPU、35.4$times$ speedup with 17.66$times$ energy reduction on GPUを達成している。
論文 参考訳(メタデータ) (2021-05-04T04:10:48Z) - Binary DAD-Net: Binarized Driveable Area Detection Network for
Autonomous Driving [94.40107679615618]
本稿では,二項化駆動型領域検出ネットワーク(バイナリDAD-Net)を提案する。
エンコーダ、ボトルネック、デコーダ部分の2重みとアクティベーションのみを使用する。
パブリックデータセット上で、最先端のセマンティックセグメンテーションネットワークより優れています。
論文 参考訳(メタデータ) (2020-06-15T07:09:01Z) - SmartExchange: Trading Higher-cost Memory Storage/Access for Lower-cost
Computation [97.78417228445883]
We present SmartExchange, a algorithm- hardware co-design framework for energy- efficient inference of Deep Neural Network (DNNs)。
そこで我々は,非零要素がすべてパワー・オブ・ツーである小さな基底行列と大きなスパース係数行列の積として,各重み行列を格納できる,特別に好ましいDNN重み構造を強制する新しいアルゴリズムを開発した。
さらに、SmartExchange強化重量をフル活用し、エネルギー効率と遅延性能の両方を改善するための専用のアクセラレータを設計する。
論文 参考訳(メタデータ) (2020-05-07T12:12:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。