論文の概要: CacheSquash: Making caches speculation-aware
- arxiv url: http://arxiv.org/abs/2406.12110v2
- Date: Thu, 08 May 2025 07:55:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.514429
- Title: CacheSquash: Making caches speculation-aware
- Title(参考訳): CacheSquash: キャッシュの推測を意識する
- Authors: Hossam ElAtali, N. Asokan,
- Abstract要約: 高いCPUパフォーマンスを実現する上では、投機が鍵となるが、Spectre攻撃のようなリスクを可能にする。
本稿では,メモリアクセスの不正を解消する新しい対策であるCacheSquashを提案する。
gem5にCacheSquashを実装し、ほぼゼロに近いパフォーマンスのオーバーヘッドで、実用的なSpectre攻撃を阻止していることを示す。
- 参考スコア(独自算出の注目度): 11.499924192220274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Speculation is key to achieving high CPU performance, yet it enables risks like Spectre attacks which remain a significant challenge to mitigate without incurring substantial performance overheads. These attacks typically unfold in three stages: access, transmit, and receive. Typically, they exploit a cache timing side channel during the transmit and receive phases: speculatively accessing sensitive data (access), altering cache state (transmit), and then utilizing a cache timing attack (e.g., Flush+Reload) to extract the secret (receive). Our key observation is that Spectre attacks only require the transmit instruction to execute and dispatch a request to the cache hierarchy. It need not complete before a misprediction is detected (and mis-speculated instructions squashed) because responses from memory that arrive at the cache after squashing still alter cache state. We propose a novel mitigation, CacheSquash, that cancels mis-speculated memory accesses. Immediately upon squashing, a cancellation is sent to the cache hierarchy, propagating downstream and preventing any changes to caches that have not yet received a response. This minimizes cache state changes, thereby reducing the likelihood of Spectre attacks succeeding. We implement CacheSquash on gem5 and show that it thwarts practical Spectre attacks, with near-zero performance overheads.
- Abstract(参考訳): 高いCPUパフォーマンスを実現する上では、投機が鍵となるが、パフォーマンス上のオーバーヘッドを伴わずに軽減するための重要な課題であるSpectre攻撃のようなリスクを可能にする。
これらの攻撃は通常、アクセス、送信、受信の3段階に展開する。
通常、送信および受信フェーズ中にキャッシュタイミングサイドチャネルを利用する: 機密データ(アクセス)に投機的にアクセスし、キャッシュ状態(送信)を変更し、キャッシュタイミングアタック(例えば Flush+Reload)を使用してシークレット(受信)を抽出する。
私たちのキーとなる観察は、Spectre攻撃は、キャッシュ階層にリクエストを実行およびディスパッチするために送信命令のみを必要とするということです。
キャッシュ状態が変わっても、キャッシュに到着したメモリからの応答がキャッシュの状態を変えるため、誤った予測が検出される前に完了する必要はない。
本稿では,メモリアクセスの不正を解消する新しい対策であるCacheSquashを提案する。
スキャッシングの直後に、キャンセルがキャッシュ階層に送信され、下流を伝播し、まだ応答を受けていないキャッシュの変更を防止する。
これによりキャッシュ状態の変化を最小限に抑え、Spectre攻撃が成功する可能性を減らすことができる。
gem5にCacheSquashを実装し、ほぼゼロに近いパフォーマンスのオーバーヘッドで、実用的なSpectre攻撃を阻止していることを示す。
関連論文リスト
- EXAM: Exploiting Exclusive System-Level Cache in Apple M-Series SoCs for Enhanced Cache Occupancy Attacks [2.198430261120653]
キャッシュ占有攻撃は、キャッシュ階層の共有特性を利用して、全体のキャッシュ使用状況を監視することで、被害者のアクティビティを推測する。
敵が自身のCPUクラスタからGPUや他のCPUクラスタのアクティビティを監視することができる。
論文 参考訳(メタデータ) (2025-04-18T00:21:00Z) - Shield Bash: Abusing Defensive Coherence State Retrieval to Break Timing Obfuscation [2.03921019862868]
本論文では,2つのアートディフェンスの相互作用について検討する。
TORCはキャッシュヒットベースの攻撃を軽減し、DSRCは投機的コヒーレンス状態変化攻撃を緩和する。
この脆弱性を用いて,新たな隠蔽チャネル攻撃が可能であることを実証する。
論文 参考訳(メタデータ) (2025-04-14T15:27:32Z) - QuantCache: Adaptive Importance-Guided Quantization with Hierarchical Latent and Layer Caching for Video Generation [84.91431271257437]
Diffusion Transformers (DiTs) はビデオ生成において支配的なアーキテクチャとして登場した。
DiTには、計算コストやメモリコストの増大など、大きな欠点がある。
我々は,新しいトレーニングフリー推論アクセラレーションフレームワークQuantCacheを提案する。
論文 参考訳(メタデータ) (2025-03-09T10:31:51Z) - Auditing Prompt Caching in Language Model APIs [77.02079451561718]
大規模言語モデル(LLM)における即時キャッシュによるプライバシリークについて検討する。
OpenAIを含む7つのAPIプロバイダのユーザ間でのグローバルキャッシュ共有を検出します。
OpenAIの埋め込みモデルがデコーダのみのトランスフォーマーであることの証拠が見つかりました。
論文 参考訳(メタデータ) (2025-02-11T18:58:04Z) - SMaCk: Efficient Instruction Cache Attacks via Self-Modifying Code Conflicts [5.942801930997087]
自己修正コード(SMC)は、プログラムが自身の命令を変更することを可能にする。
SMCは、悪質な目的のために悪用できるユニークな微構造的挙動を導入している。
論文 参考訳(メタデータ) (2025-02-08T03:35:55Z) - Deliberation in Latent Space via Differentiable Cache Augmentation [48.228222586655484]
凍結した大規模言語モデルをオフラインコプロセッサで拡張し,キー値(kv)キャッシュで動作することを示す。
このコプロセッサは、後続の復号化の忠実性を改善するために設計された遅延埋め込みのセットでキャッシュを増強する。
キャッシュが拡張されると、デコーダは多数のトークンに対して低いパープレキシティを達成できることを示す。
論文 参考訳(メタデータ) (2024-12-23T18:02:25Z) - InstCache: A Predictive Cache for LLM Serving [9.878166964839512]
本稿では,命令整合 LLM によるユーザインストラクションの予測と,それを予測キャッシュ,いわゆる InstCache に格納することを提案する。
実験の結果、InstCacheはLMSysデータセット上で最大51.34%のヒット率を達成でき、メモリコストは4.5GBに過ぎなかった。
論文 参考訳(メタデータ) (2024-11-21T03:52:41Z) - Efficient Inference of Vision Instruction-Following Models with Elastic Cache [76.44955111634545]
我々は,命令追従型大規模視覚言語モデルの効率的なデプロイのための新しい戦略であるElastic Cacheを紹介する。
本稿では,冗長キャッシュを具現化する重要なキャッシュマージ戦略を提案する。
命令符号化では,キャッシュの重要性を評価するために周波数を利用する。
様々なLVLMの結果は、Elastic Cacheが効率を向上するだけでなく、言語生成における既存のプルーニングメソッドよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-25T15:29:05Z) - Training-Free Exponential Context Extension via Cascading KV Cache [49.608367376911694]
カスケードサブキャッシュバッファを利用して,最も関連性の高いトークンを選択的に保持する機構を導入する。
本手法は,1Mトークンのフラッシュアテンションと比較して,プリフィルステージ遅延を6.8倍削減する。
論文 参考訳(メタデータ) (2024-06-24T03:59:17Z) - PyramidInfer: Pyramid KV Cache Compression for High-throughput LLM Inference [57.53291046180288]
大規模言語モデル(LLM)は、目覚ましい理解能力を示しているが、推論中のGPUメモリ使用の課題に直面している。
本稿では,KVキャッシュを重要なコンテキストを階層的に保持することで圧縮するPraamidInferを提案する。
PyramidInferは、KVキャッシュで54%以上のGPUメモリを削減したAccelerateと比較して、2.2倍のスループットを改善している。
論文 参考訳(メタデータ) (2024-05-21T06:46:37Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - Prime+Retouch: When Cache is Locked and Leaked [8.332926136722296]
現代のコモディティCPU上のキャッシュは、サイドチャネルリークの主な原因の1つになっている。
キャッシュベースのサイドチャネル攻撃を防ぐため、2種類の対策が提案されている。
これらの防御策を完全に回避するPrime+Retouch攻撃を提示する。
論文 参考訳(メタデータ) (2024-02-23T16:34:49Z) - On the Amplification of Cache Occupancy Attacks in Randomized Cache Architectures [11.018866935621045]
MIRAGEは,エビクションベースの攻撃に対して耐性があるといわれ,キャッシュ占有率の増大を図っている。
我々は,MIRAGEのグローバルな消去特性を利用して,バイトレベルの粒度を持つ被覆チャネルを実証する。
攻撃ベクトルを拡張して、ワークロードのサイドチャネル、テンプレートベースのフィンガープリントをクロスコア設定に含めます。
論文 参考訳(メタデータ) (2023-10-08T14:06:06Z) - Random and Safe Cache Architecture to Defeat Cache Timing Attacks [5.142233612851766]
キャッシュは、メモリアクセスの処理に要する時間が異なるため、秘密情報を漏洩するために悪用されている。
攻撃と防御の空間を体系的に把握し、既存の防御がすべてのキャッシュタイミング攻撃に対処していないことを示す。
我々はRandom and Safe(RaS)キャッシュアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-09-28T05:08:16Z) - BackCache: Mitigating Contention-Based Cache Timing Attacks by Hiding Cache Line Evictions [7.46215723037597]
L1データキャッシュ攻撃は、重大なプライバシーと機密性の脅威を引き起こす。
BackCacheは常にキャッシュミスではなくキャッシュヒットを達成し、L1データキャッシュに対する競合ベースのキャッシュタイミング攻撃を軽減します。
BackCacheは、解放されたキャッシュラインをL1データキャッシュから完全に連想的なバックアップキャッシュに配置して、排除を隠蔽する。
論文 参考訳(メタデータ) (2023-04-20T12:47:11Z) - Recurrent Dynamic Embedding for Video Object Segmentation [54.52527157232795]
一定サイズのメモリバンクを構築するためにRDE(Recurrent Dynamic Embedding)を提案する。
本稿では, SAM を長時間の動画でより堅牢にするため, トレーニング段階での無バイアス誘導損失を提案する。
また、メモリバンクの異なる品質のマスクの埋め込みをネットワークが修復できるように、新たな自己補正戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T02:24:43Z) - Accelerating Deep Learning Classification with Error-controlled
Approximate-key Caching [72.50506500576746]
我々は、近似キーキャッシングと名付けた新しいキャッシングパラダイムを提案する。
近似キャッシュはDL推論の負荷を軽減し、システムのスループットを向上するが、近似誤差を導入する。
我々は古典的なLRUと理想的なキャッシュのキャッシュシステム性能を解析的にモデル化し、期待される性能のトレース駆動評価を行い、提案手法の利点を最先端の類似キャッシュと比較した。
論文 参考訳(メタデータ) (2021-12-13T13:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。