論文の概要: Influence of Parallelism in Vector-Multiplication Units on Correlation Power Analysis
- arxiv url: http://arxiv.org/abs/2601.05828v1
- Date: Fri, 09 Jan 2026 15:01:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.993267
- Title: Influence of Parallelism in Vector-Multiplication Units on Correlation Power Analysis
- Title(参考訳): ベクトル多重化ユニットの並列性が相関電力解析に及ぼす影響
- Authors: Manuel Brosch, Matthias Probst, Stefan Kögler, Georg Sigl,
- Abstract要約: 本研究では,ハードウェアアクセラレータにおける並列処理がサイドチャネル攻撃に与える影響について検討する。
焦点は、同じ完全に接続された層の一部であるニューロンに向けられ、並列に実行され、同時に同じ入力値を処理する。
- 参考スコア(独自算出の注目度): 0.5439798554380393
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of neural networks in edge devices is increasing, which introduces new security challenges related to the neural networks' confidentiality. As edge devices often offer physical access, attacks targeting the hardware, such as side-channel analysis, must be considered. To enhance the performance of neural network inference, hardware accelerators are commonly employed. This work investigates the influence of parallel processing within such accelerators on correlation-based side-channel attacks that exploit power consumption. The focus is on neurons that are part of the same fully-connected layer, which run parallel and simultaneously process the same input value. The theoretical impact of concurrent multiply-and-accumulate operations on overall power consumption is evaluated, as well as the success rate of correlation power analysis. Based on the observed behavior, equations are derived that describe how the correlation decreases with increasing levels of parallelism. The applicability of these equations is validated using a vector-multiplication unit implemented on an FPGA.
- Abstract(参考訳): エッジデバイスにおけるニューラルネットワークの利用が増加し、ニューラルネットワークの機密性に関連する新たなセキュリティ課題がもたらされている。
エッジデバイスは物理的アクセスを提供することが多いため、サイドチャネル分析のようなハードウェアをターゲットにした攻撃を考慮する必要がある。
ニューラルネットワーク推論の性能を高めるために、ハードウェアアクセラレータが一般的に使用されている。
本研究では,これらの加速器内での並列処理が電力消費を生かした相関型サイドチャネル攻撃に与える影響について検討する。
焦点は、同じ完全に接続された層の一部であるニューロンに向けられ、並列に実行され、同時に同じ入力値を処理する。
コンカレント乗算・累積演算が全体の消費電力に与える影響と相関電力解析の成功率を評価する。
観測された振る舞いに基づいて、相関が並列性のレベルの増加とともにどのように減少するかを記述する方程式が導出される。
これらの方程式の適用性はFPGA上に実装されたベクトル乗算ユニットを用いて検証される。
関連論文リスト
- Exploring operation parallelism vs. ion movement in ion-trapped QCCD architectures [0.0]
イオントラッピング量子電荷結合デバイス(QCCD)アーキテクチャは、単一トラップデバイスをスケールする上で有望な代替手段として登場した。
本稿では,移動オーバーヘッドによる動作の並列性と忠実度損失とのトレードオフについて検討する。
論文 参考訳(メタデータ) (2025-02-06T16:12:31Z) - Enforcing Fundamental Relations via Adversarial Attacks on Input Parameter Correlations [76.2226569692207]
入力パラメータ間の相関は、多くの科学的分類タスクにおいて重要な役割を果たす。
我々はRandom Distribution Shuffle Attack (RDSA)と呼ばれる新たな敵攻撃アルゴリズムを提案する。
6つの分類課題においてRDSAの有効性を示す。
論文 参考訳(メタデータ) (2025-01-09T21:45:09Z) - The Inherent Adversarial Robustness of Analog In-Memory Computing [2.435021773579434]
Deep Neural Network(DNN)アルゴリズムの重要な課題は、敵の攻撃に対する脆弱性である。
本稿では,位相変化メモリ(PCM)デバイスを用いたAIMCチップ上での予測を実験的に検証する。
ハードウェア・イン・ザ・ループ攻撃を行う際には、さらなる堅牢性も観察される。
論文 参考訳(メタデータ) (2024-11-11T14:29:59Z) - Biologically Plausible Learning on Neuromorphic Hardware Architectures [27.138481022472]
ニューロモルフィックコンピューティング(Neuromorphic Computing)は、アナログメモリの計算によってこの不均衡に直面している新興パラダイムである。
この研究は、異なる学習アルゴリズムがCompute-In-Memoryベースのハードウェアに与える影響を初めて比較し、その逆も行った。
論文 参考訳(メタデータ) (2022-12-29T15:10:59Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z) - Comparative Analysis of Polynomial and Rational Approximations of
Hyperbolic Tangent Function for VLSI Implementation [5.429955391775968]
ディープニューラルネットワークは、多くのコンピュータビジョンや、オブジェクト検出や音声認識などのヒューマンマシンインタフェースアプリケーションにおいて、最先端の結果をもたらす。
これらのネットワークは計算コストがかかるため、より低コストで必要な性能を達成するためにカスタマイズされたアクセラレータが設計されている。
論文 参考訳(メタデータ) (2020-07-13T07:31:02Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z) - Understanding the Effects of Data Parallelism and Sparsity on Neural
Network Training [126.49572353148262]
ニューラルネットワークトレーニングにおける2つの要因として,データ並列性と疎性について検討する。
有望なメリットにもかかわらず、ニューラルネットワークトレーニングに対する彼らの影響を理解することは、依然として明白である。
論文 参考訳(メタデータ) (2020-03-25T10:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。