論文の概要: GATEBLEED: Exploiting On-Core Accelerator Power Gating for High Performance & Stealthy Attacks on AI
- arxiv url: http://arxiv.org/abs/2507.17033v1
- Date: Tue, 22 Jul 2025 21:41:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.782968
- Title: GATEBLEED: Exploiting On-Core Accelerator Power Gating for High Performance & Stealthy Attacks on AI
- Title(参考訳): GATEBLEED:AIによるハイパフォーマンスおよびステルス攻撃のためのオンコアアクセラレータパワーゲーティングのエクスプロイト
- Authors: Joshua Kalyanapu, Farshad Dizani, Darsh Asher, Azam Ghanbari, Rosario Cammarota, Aydin Aysu, Samira Mirbagher Ajorpaz,
- Abstract要約: 本稿では,CPUの動作限界を抑えるために使用したアグレッシブパワーゲーティングにより,タイミング側および隠蔽チャネルであるGATEBLEEDを示す。
GateBLEEDは、従来の保護措置の下でも、ローカルおよびリモートのタイミング推定のリスクを負う。
我々は,Intel AMXに最適化されたトランスモデルに対して,エンド・ツー・エンドのマイクロアーキテクチャ推論攻撃を実装し,メンバシップ推定精度81%を達成する。
- 参考スコア(独自算出の注目度): 6.37356248756185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As power consumption from AI training and inference continues to increase, AI accelerators are being integrated directly into the CPU. Intel's Advanced Matrix Extensions (AMX) is one such example, debuting on the 4th generation Intel Xeon Scalable CPU. We discover a timing side and covert channel, GATEBLEED, caused by the aggressive power gating utilized to keep the CPU within operating limits. We show that the GATEBLEED side channel is a threat to AI privacy as many ML models such as transformers and CNNs make critical computationally-heavy decisions based on private values like confidence thresholds and routing logits. Timing delays from selective powering down of AMX components mean that each matrix multiplication is a potential leakage point when executed on the AMX accelerator. Our research identifies over a dozen potential gadgets across popular ML libraries (HuggingFace, PyTorch, TensorFlow, etc.), revealing that they can leak sensitive and private information. GATEBLEED poses a risk for local and remote timing inference, even under previous protective measures. GATEBLEED can be used as a high performance, stealthy remote covert channel and a generic magnifier for timing transmission channels, capable of bypassing traditional cache defenses to leak arbitrary memory addresses and evading state of the art microarchitectural attack detectors under realistic network conditions and system configurations in which previous attacks fail. We implement an end-to-end microarchitectural inference attack on a transformer model optimized with Intel AMX, achieving a membership inference accuracy of 81% and a precision of 0.89. In a CNN-based or transformer-based mixture-of-experts model optimized with Intel AMX, we leak expert choice with 100% accuracy.
- Abstract(参考訳): AIトレーニングと推論による消費電力の増加に伴い、AIアクセラレータはCPUに直接統合されている。
IntelのAdvanced Matrix Extensions (AMX)は、第4世代のIntel Xeon Scalable CPUでデビューした。
我々は、CPUを動作限界内に留めるために使用するアグレッシブパワーゲーティングにより、タイミング側および隠蔽チャネルであるGATEBLEEDを発見した。
GATEBLEEDサイドチャネルは、トランスフォーマーやCNNといった多くのMLモデルが、信頼しきい値やルーティングロジットといったプライベート値に基づいて、計算量の多い決定を行うため、AIプライバシの脅威であることを示す。
AMXコンポーネントの選択的パワーダウンのタイミング遅延は、各行列乗算がAMXアクセラレータ上で実行されるときの潜在的なリークポイントであることを意味する。
私たちの研究は、一般的なMLライブラリ(HuggingFace、PyTorch、TensorFlowなど)にまたがる10以上の潜在的なガジェットを特定し、機密情報や個人情報をリークできることを明らかにしています。
GATEBLEEDは、従来の保護措置の下でも、局所的および遠隔的タイミング推定のリスクを負う。
GATEBLEEDは、高性能でステルスなリモートカバーレットチャネルと、タイミング送信チャネルのための汎用的な拡大器として使用することができ、従来のキャッシュディフェンスをバイパスして任意のメモリアドレスをリークし、以前の攻撃が失敗する現実的なネットワーク条件とシステム構成の下で最先端のマイクロアーキテクチャ攻撃検出器を避けることができる。
我々は、Intel AMXに最適化されたトランスモデルに対して、エンド・ツー・エンドのマイクロアーキテクチャ推論攻撃を実装し、メンバシップ推定精度は81%、精度は0.89である。
Intel AMXに最適化されたCNNベースまたはトランスフォーマーベースのMix-of-expertsモデルでは、専門家の選択を100%精度でリークする。
関連論文リスト
- Exploiting Inaccurate Branch History in Side-Channel Attacks [54.218160467764086]
本稿では,リソース共有と競合が広く実装されているが文書化されていない2つの特徴,バイアスフリー分岐予測と分岐履歴推定にどのように影響するかを検討する。
これらの機能は、ブランチ履歴バッファ(BHB)の更新動作を不注意に修正し、悪意のある誤定義を引き起こす新しいプリミティブを作成することができる。
2つのSpectre攻撃、すなわちSpectre-BSEとSpectre-BHSと、BiasScopeと呼ばれるクロスプライマリ制御フローサイドチャネル攻撃である。
論文 参考訳(メタデータ) (2025-06-08T19:46:43Z) - Fooling the Decoder: An Adversarial Attack on Quantum Error Correction [49.48516314472825]
本研究では,基本的なRL曲面符号デコーダ(DeepQ)を目標とし,量子誤り訂正に対する最初の逆攻撃を生成する。
メモリ実験における論理量子ビット寿命を最大5桁まで短縮する攻撃を実証する。
この攻撃は、機械学習ベースのQECの感受性を強調し、堅牢なQEC手法に関するさらなる研究の重要性を強調している。
論文 参考訳(メタデータ) (2025-04-28T10:10:05Z) - THOR: A Non-Speculative Value Dependent Timing Side Channel Attack Exploiting Intel AMX [0.20971479389679332]
我々はIntel AMXに新しい値依存型タイミング側チャネル脆弱性を導入する。
我々は、ニューラルネットワークの重みの空間性を推定できるソフトウェアベースの、価値に依存したタイミングサイドチャネル攻撃を実証する。
攻撃方法は,64個の入力要素に割り当てられた重みの空間を50分以内で完全に回復することができる。
論文 参考訳(メタデータ) (2025-02-24T21:12:57Z) - μRL: Discovering Transient Execution Vulnerabilities Using Reinforcement Learning [4.938372714332782]
本稿では,SpectreやMeltdownといったマイクロアーキテクチャの脆弱性を発見する上での課題に対して,強化学習を用いることを提案する。
我々のRLエージェントはプロセッサと対話し、リアルタイムフィードバックから学び、命令シーケンスを優先順位付けすることで脆弱性を明らかにする。
論文 参考訳(メタデータ) (2025-02-20T06:42:03Z) - Can't Slow me Down: Learning Robust and Hardware-Adaptive Object Detectors against Latency Attacks for Edge Devices [21.359326502877487]
最近、オブジェクト検出器のリアルタイム処理機能をターゲットに、新しいタイプの遅延攻撃が報告されている。
我々は,この攻撃に対して,暗黙の敵の訓練を通じて防御する試みを行っている。
実験は、リアルタイム処理能力を13ドルFPSから43ドルFPSに復元する防御効果を示す。
論文 参考訳(メタデータ) (2024-12-03T05:00:26Z) - BEEAR: Embedding-based Adversarial Removal of Safety Backdoors in Instruction-tuned Language Models [57.5404308854535]
大型言語モデル(LLM)における安全バックドア攻撃は、正常な相互作用中の検出を回避しながら、安全でない振る舞いをステルス的に引き起こすことができる。
モデル埋め込み空間において,バックドアトリガーが比較的均一なドリフトを引き起こすという知見を活かした緩和手法であるBEEARを提案する。
両レベル最適化手法は、不要な振る舞いを誘発する普遍的な埋め込み摂動を特定し、モデルパラメータを調整し、これらの摂動に対する安全な振舞いを強化する。
論文 参考訳(メタデータ) (2024-06-24T19:29:47Z) - System-level Analysis of Adversarial Attacks and Defenses on Intelligence in O-RAN based Cellular Networks [2.1824191810542666]
オープンラジオアクセスネットワーク技術におけるサイバー脅威のシステムレベルでの徹底的な調査を行う。
我々は、O-RANのほぼリアルタイムRAN Intelligent Controller(近RT RIC)プラットフォーム内のxAppsとして知られる機械学習(ML)インテリジェンスコンポーネントに焦点を当てる。
我々の研究は、2種類のテストデータに対する敵対攻撃を実行するために設計された悪質なxAppの開発から始まった。
これらの脅威を緩和するために,教師モデルを高いソフトマックス温度で訓練し,その知識を低いソフトマックス温度で訓練された学生モデルに伝達する蒸留技術を利用する。
論文 参考訳(メタデータ) (2024-02-10T00:26:44Z) - A Unified Hardware-based Threat Detector for AI Accelerators [12.96840649714218]
FPGAベースのAIアクセラレータを保護するために,UniGuardを設計する。
我々は、電力変動を捉え、教師付き機械学習モデルを訓練し、様々な種類の脅威を特定するために、タイム・トゥ・デジタル・コンバータを用いている。
論文 参考訳(メタデータ) (2023-11-28T10:55:02Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。