論文の概要: THOR: A Non-Speculative Value Dependent Timing Side Channel Attack Exploiting Intel AMX
- arxiv url: http://arxiv.org/abs/2502.17658v1
- Date: Mon, 24 Feb 2025 21:12:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:20:29.624973
- Title: THOR: A Non-Speculative Value Dependent Timing Side Channel Attack Exploiting Intel AMX
- Title(参考訳): THOR: Intel AMXを爆発させる非投機的値依存型サイドチャネル攻撃
- Authors: Farshad Dizani, Azam Ghanbari, Joshua Kalyanapu, Darsh Asher, Samira Mirbagher Ajorpaz,
- Abstract要約: 我々はIntel AMXに新しい値依存型タイミング側チャネル脆弱性を導入する。
我々は、ニューラルネットワークの重みの空間性を推定できるソフトウェアベースの、価値に依存したタイミングサイドチャネル攻撃を実証する。
攻撃方法は,64個の入力要素に割り当てられた重みの空間を50分以内で完全に回復することができる。
- 参考スコア(独自算出の注目度): 0.20971479389679332
- License:
- Abstract: The rise of on-chip accelerators signifies a major shift in computing, driven by the growing demands of artificial intelligence (AI) and specialized applications. These accelerators have gained popularity due to their ability to substantially boost performance, cut energy usage, lower total cost of ownership (TCO), and promote sustainability. Intel's Advanced Matrix Extensions (AMX) is one such on-chip accelerator, specifically designed for handling tasks involving large matrix multiplications commonly used in machine learning (ML) models, image processing, and other computational-heavy operations. In this paper, we introduce a novel value-dependent timing side-channel vulnerability in Intel AMX. By exploiting this weakness, we demonstrate a software-based, value-dependent timing side-channel attack capable of inferring the sparsity of neural network weights without requiring any knowledge of the confidence score, privileged access or physical proximity. Our attack method can fully recover the sparsity of weights assigned to 64 input elements within 50 minutes, which is 631% faster than the maximum leakage rate achieved in the Hertzbleed attack.
- Abstract(参考訳): オンチップアクセラレータの台頭は、人工知能(AI)と特殊な応用の需要が増大する中で、コンピューティングの大きな変化を示している。
これらの加速器は、性能を大幅に向上し、エネルギー使用量を削減し、総所有コスト(TCO)を下げ、持続可能性を高める能力によって人気を博している。
IntelのAdvanced Matrix Extensions (AMX) は、機械学習(ML)モデルや画像処理、その他の計算量の多い操作でよく使われる大きな行列乗算を含むタスクを扱うために特別に設計されたオンチップアクセラレータである。
本稿では,Intel AMXにおける新しい値依存型タイミング側チャネル脆弱性を提案する。
この弱点を生かして、信頼性スコアや特権アクセス、物理的近接性の知識を必要とせずに、ニューラルネットワーク重みの空間性を推定できる、ソフトウェアベースの、価値依存のタイミング側チャネル攻撃を実証する。
本手法では,64個の入力要素に割り当てられた重みの間隔を50分以内で完全に回復できるが,Hertzbleed攻撃で得られた最大リークレートよりも631%高速である。
関連論文リスト
- SparAMX: Accelerating Compressed LLMs Token Generation on AMX-powered CPUs [5.760049762453579]
大規模な言語モデルをCPUで加速することにより、より広いAIアクセスを低コストで、消費電力で実現する。
オープンソースでカスタマイズされたスパースカーネルのセットを提供し、任意のPyTorchモデルを高速化します。
我々は、現在のシステム上での1.14倍のスピードアップを達成するために、非構造化空間の使用を初めて実演する。
論文 参考訳(メタデータ) (2025-02-18T02:26:34Z) - Secure Resource Allocation via Constrained Deep Reinforcement Learning [49.15061461220109]
リソース割り当て、タスクオフロード、セキュリティ、パフォーマンスのバランスをとるフレームワークであるSARMTOを紹介します。
SARMTOは5つのベースラインアプローチを一貫して上回り、最大40%のシステムコスト削減を実現している。
これらの拡張は、複雑な分散コンピューティング環境におけるリソース管理に革命をもたらすSARMTOの可能性を強調している。
論文 参考訳(メタデータ) (2025-01-20T15:52:43Z) - Data-Oblivious ML Accelerators using Hardware Security Extensions [9.716425897388875]
アウトソース計算は、クライアントデータの機密性を危険にさらす可能性がある。
Gemmini行列乗算加速器にDIFTを適用したDolmaを開発した。
Dolmaは大きな構成で低いオーバーヘッドを発生させることを示す。
論文 参考訳(メタデータ) (2024-01-29T21:34:29Z) - Defense against ML-based Power Side-channel Attacks on DNN Accelerators with Adversarial Attacks [21.611341074006162]
AIAShieldはFPGAベースのAIアクセラレータを保護するための新しい防衛手法である。
我々は、機械学習コミュニティの卓越した敵攻撃技術を活用して、繊細なノイズを発生させる。
AIAShieldは、転送性に優れた既存のソリューションより優れている。
論文 参考訳(メタデータ) (2023-12-07T04:38:01Z) - EPIM: Efficient Processing-In-Memory Accelerators based on Epitome [78.79382890789607]
畳み込みのような機能を提供する軽量神経オペレータであるEpitomeを紹介する。
ソフトウェア側では,PIMアクセラレータ上でのエピトームのレイテンシとエネルギを評価する。
ハードウェア効率を向上させるため,PIM対応層設計手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T17:56:39Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - MAPLE-Edge: A Runtime Latency Predictor for Edge Devices [80.01591186546793]
汎用ハードウェアの最先端遅延予測器であるMAPLEのエッジデバイス指向拡張であるMAPLE-Edgeを提案する。
MAPLEと比較して、MAPLE-Edgeはより小さなCPUパフォーマンスカウンタを使用して、ランタイムとターゲットデバイスプラットフォームを記述することができる。
また、共通ランタイムを共有するデバイスプール上でトレーニングを行うMAPLEとは異なり、MAPLE-Edgeは実行時に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2022-04-27T14:00:48Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - ATTACC the Quadratic Bottleneck of Attention Layers [3.2741800634280245]
本稿では、ディープニューラルネットワーク(DNN)アクセラレーターのための新しいアテンション調整データフローであるFLATを紹介する。
高帯域幅で低容量のオンチップバッファを効率的に利用することで、効果的なメモリ帯域幅を増大させる。
評価では,ATTACCは最先端エッジやクラウドアクセラレータと比較して1.94倍,1.76倍,49%,42%のエネルギー削減を達成した。
論文 参考訳(メタデータ) (2021-07-13T22:23:40Z) - Optimizing Deep Learning Recommender Systems' Training On CPU Cluster
Architectures [56.69373580921888]
クラウドコンピューティングセンターのAIサイクルの大部分を占めるRecommender Systemsに注目します。
HPC用に調整された最新のCPUハードウェアとソフトウェア上で動作可能にすることで、パフォーマンスの2桁以上の改善を達成できます。
論文 参考訳(メタデータ) (2020-05-10T14:40:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。