論文の概要: Cancellable Memory Requests: A transparent, lightweight Spectre mitigation
- arxiv url: http://arxiv.org/abs/2406.12110v1
- Date: Mon, 17 Jun 2024 21:43:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 23:37:50.984902
- Title: Cancellable Memory Requests: A transparent, lightweight Spectre mitigation
- Title(参考訳): Cancellable Memory Requests: 透過的で軽量なSpectre緩和
- Authors: Hossam ElAtali, N. Asokan,
- Abstract要約: 推論はCPUのパフォーマンス向上に基本的だが、Spectre攻撃のような脆弱性を可能にする。
本稿では,不特定メモリ要求をキャンセルするCMR(Cancellable Memory Requests)を提案する。
我々は,現実的なシステム構成を持つ4つの実世界のプロセッサにおいて,CMRがSpectre攻撃を完全に阻止できることを示す。
- 参考スコア(独自算出の注目度): 11.499924192220274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Speculation is fundamental to achieving high CPU performance, yet it enables vulnerabilities such as Spectre attacks, which remain a significant challenge to mitigate without incurring substantial performance overheads. These attacks typically unfold in three steps: they speculatively access sensitive data (access), alter the cache state (transmit), and then utilize a cache timing attack (e.g., Flush+Reload) to extract the secret (receive). Most Spectre attacks exploit a cache timing side channel during the transmit and receive steps. Our key observation is that Spectre attacks do not require the transmit instruction to complete before mis-prediction is detected and mis-speculated instructions are squashed. Instead, it suffices for the instruction to execute and dispatch a request to the memory hierarchy. Responses from memory that arrive after squashing occurs still alter the cache state, including those related to mis-speculated memory accesses. We therefore propose a novel mitigation technique, Cancellable Memory Requests (CMR), that cancels mis-speculated memory requests. Immediately upon squashing, a cancellation is sent to the cache hierarchy, propagating downstream and preventing any changes to caches that have not yet received a response. This reduces the likelihood of cache state changes, thereby reducing the likelihood of Spectre attacks succeeding. We implement CMR on gem5 and show that it thwarts practical Spectre attacks, and has near-zero performance overheads. We show that CMR can completely thwart Spectre attacks in four real-world processors with realistic system configurations.
- Abstract(参考訳): 推論はCPUのパフォーマンス向上に基本的だが、Spectre攻撃のような脆弱性を可能にする。
これらの攻撃は一般的に3つのステップで展開される: 機密データ(アクセス)に投機的にアクセスし、キャッシュ状態(送信)を変更し、キャッシュタイミングアタック(例えば Flush+Reload)を使用してシークレット(受信)を抽出する。
多くのSpectre攻撃は、送信および受信ステップ中にキャッシュタイミング側チャネルを利用する。
我々のキーとなる観察は、誤予測が検出され、誤特定命令がスクアッシュされる前に、送信命令を完了させる必要がないことである。
代わりに、命令がメモリ階層に要求を実行し、ディスパッチするのに十分である。
スカッシング後にやってくるメモリからの応答は、誤って特定されたメモリアクセスに関連するものを含むキャッシュ状態を変化させる。
そこで我々はCMR(Cancellable Memory Requests)という,不特定メモリ要求をキャンセルする新しい緩和手法を提案する。
スキャッシングの直後に、キャンセルがキャッシュ階層に送信され、下流を伝播し、まだ応答を受けていないキャッシュの変更を防止する。
これにより、キャッシュ状態が変更される可能性が低下し、Spectre攻撃が成功する可能性が低下する。
gem5 上で CMR を実装し,実際の Spectre 攻撃を阻止し,性能上のオーバーヘッドがほぼゼロに近いことを示す。
我々は,現実的なシステム構成を持つ4つの実世界のプロセッサにおいて,CMRがSpectre攻撃を完全に阻止できることを示す。
関連論文リスト
- InstCache: A Predictive Cache for LLM Serving [9.878166964839512]
本稿では,命令整合 LLM によるユーザインストラクションの予測と,それを予測キャッシュ,いわゆる InstCache に格納することを提案する。
実験の結果、InstCacheはLMSysデータセット上で最大51.34%のヒット率を達成でき、メモリコストは4.5GBに過ぎなかった。
論文 参考訳(メタデータ) (2024-11-21T03:52:41Z) - Efficient Inference of Vision Instruction-Following Models with Elastic Cache [76.44955111634545]
我々は,命令追従型大規模視覚言語モデルの効率的なデプロイのための新しい戦略であるElastic Cacheを紹介する。
本稿では,冗長キャッシュを具現化する重要なキャッシュマージ戦略を提案する。
命令符号化では,キャッシュの重要性を評価するために周波数を利用する。
様々なLVLMの結果は、Elastic Cacheが効率を向上するだけでなく、言語生成における既存のプルーニングメソッドよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-25T15:29:05Z) - Training-Free Exponential Context Extension via Cascading KV Cache [49.608367376911694]
カスケードサブキャッシュバッファを利用して,最も関連性の高いトークンを選択的に保持する機構を導入する。
本手法は,1Mトークンのフラッシュアテンションと比較して,プリフィルステージ遅延を6.8倍削減する。
論文 参考訳(メタデータ) (2024-06-24T03:59:17Z) - PyramidInfer: Pyramid KV Cache Compression for High-throughput LLM Inference [57.53291046180288]
大規模言語モデル(LLM)は、目覚ましい理解能力を示しているが、推論中のGPUメモリ使用の課題に直面している。
本稿では,KVキャッシュを重要なコンテキストを階層的に保持することで圧縮するPraamidInferを提案する。
PyramidInferは、KVキャッシュで54%以上のGPUメモリを削減したAccelerateと比較して、2.2倍のスループットを改善している。
論文 参考訳(メタデータ) (2024-05-21T06:46:37Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - Prime+Retouch: When Cache is Locked and Leaked [8.332926136722296]
現代のコモディティCPU上のキャッシュは、サイドチャネルリークの主な原因の1つになっている。
キャッシュベースのサイドチャネル攻撃を防ぐため、2種類の対策が提案されている。
これらの防御策を完全に回避するPrime+Retouch攻撃を提示する。
論文 参考訳(メタデータ) (2024-02-23T16:34:49Z) - On the Amplification of Cache Occupancy Attacks in Randomized Cache Architectures [11.018866935621045]
MIRAGEは,エビクションベースの攻撃に対して耐性があるといわれ,キャッシュ占有率の増大を図っている。
我々は,MIRAGEのグローバルな消去特性を利用して,バイトレベルの粒度を持つ被覆チャネルを実証する。
攻撃ベクトルを拡張して、ワークロードのサイドチャネル、テンプレートベースのフィンガープリントをクロスコア設定に含めます。
論文 参考訳(メタデータ) (2023-10-08T14:06:06Z) - Random and Safe Cache Architecture to Defeat Cache Timing Attacks [5.142233612851766]
キャッシュは、メモリアクセスの処理に要する時間が異なるため、秘密情報を漏洩するために悪用されている。
攻撃と防御の空間を体系的に把握し、既存の防御がすべてのキャッシュタイミング攻撃に対処していないことを示す。
我々はRandom and Safe(RaS)キャッシュアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-09-28T05:08:16Z) - BackCache: Mitigating Contention-Based Cache Timing Attacks by Hiding Cache Line Evictions [7.46215723037597]
L1データキャッシュ攻撃は、重大なプライバシーと機密性の脅威を引き起こす。
BackCacheは常にキャッシュミスではなくキャッシュヒットを達成し、L1データキャッシュに対する競合ベースのキャッシュタイミング攻撃を軽減します。
BackCacheは、解放されたキャッシュラインをL1データキャッシュから完全に連想的なバックアップキャッシュに配置して、排除を隠蔽する。
論文 参考訳(メタデータ) (2023-04-20T12:47:11Z) - Recurrent Dynamic Embedding for Video Object Segmentation [54.52527157232795]
一定サイズのメモリバンクを構築するためにRDE(Recurrent Dynamic Embedding)を提案する。
本稿では, SAM を長時間の動画でより堅牢にするため, トレーニング段階での無バイアス誘導損失を提案する。
また、メモリバンクの異なる品質のマスクの埋め込みをネットワークが修復できるように、新たな自己補正戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T02:24:43Z) - Accelerating Deep Learning Classification with Error-controlled
Approximate-key Caching [72.50506500576746]
我々は、近似キーキャッシングと名付けた新しいキャッシングパラダイムを提案する。
近似キャッシュはDL推論の負荷を軽減し、システムのスループットを向上するが、近似誤差を導入する。
我々は古典的なLRUと理想的なキャッシュのキャッシュシステム性能を解析的にモデル化し、期待される性能のトレース駆動評価を行い、提案手法の利点を最先端の類似キャッシュと比較した。
論文 参考訳(メタデータ) (2021-12-13T13:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。