論文の概要: Slice+Slice Baby: Generating Last-Level Cache Eviction Sets in the Blink of an Eye
- arxiv url: http://arxiv.org/abs/2504.11208v2
- Date: Sun, 20 Apr 2025 07:53:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 12:02:08.425507
- Title: Slice+Slice Baby: Generating Last-Level Cache Eviction Sets in the Blink of an Eye
- Title(参考訳): Slice+Slice Baby: 目の瞬きで最後のレベルキャッシュエミッションセットを生成する
- Authors: Bradley Morgan, Gal Horowitz, Sioli O'Connell, Stephan van Schaik, Chitchanok Chuengsatiansup, Daniel Genkin, Olaf Maennel, Paul Montague, Eyal Ronen, Yuval Yarom,
- Abstract要約: 我々はIntelプロセッサ上のエビクションセットを見つける技術に3つの主要な貢献をしている。
まず、メモリアクセス時間を比較し、アドレスマップのキャッシュスライスを特定する。
次に、既知のハッシュ関数を用いて、スライス識別法におけるエラー率を減らし、テストされていないメモリアドレスへのスライスマッピングを外挿することで作業を削減する。
- 参考スコア(独自算出の注目度): 25.742994223152383
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: An essential step for mounting cache attacks is finding eviction sets, collections of memory locations that contend on cache space. On Intel processors, one of the main challenges for identifying contending addresses is the sliced cache design, where the processor hashes the physical address to determine where in the cache a memory location is stored. While past works have demonstrated that the hash function can be reversed, they also showed that it depends on physical address bits that the adversary does not know. In this work, we make three main contributions to the art of finding eviction sets. We first exploit microarchitectural races to compare memory access times and identify the cache slice to which an address maps. We then use the known hash function to both reduce the error rate in our slice identification method and to reduce the work by extrapolating slice mappings to untested memory addresses. Finally, we show how to propagate information on eviction sets across different page offsets for the hitherto unexplored case of non-linear hash functions. Our contributions allow for entire LLC eviction set generation in 0.7 seconds on the Intel i7-9850H and 1.6 seconds on the i9-10900K, both using non-linear functions. This represents a significant improvement compared to state-of-the-art techniques taking 9x and 10x longer, respectively.
- Abstract(参考訳): キャッシュアタックをマウントするための重要なステップは、キャッシュ空間に競合するメモリ位置のコレクションである、消去セットを見つけることである。
インテルプロセッサでは、競合するアドレスを識別する主な課題の1つはスライスされたキャッシュ設計であり、プロセッサは物理アドレスをハッシュしてキャッシュ内のメモリ位置がどこに格納されているかを決定する。
過去の研究はハッシュ関数が逆転可能であることを示したが、敵が知らない物理アドレスビットに依存することを示した。
本研究は,エビクション集合の発見技術に3つの主要な貢献をする。
まず、メモリアクセス時間を比較し、アドレスマップのキャッシュスライスを特定する。
次に、既知のハッシュ関数を用いて、スライス識別法におけるエラー率を減らし、テストされていないメモリアドレスへのスライスマッピングを外挿することで作業を削減する。
最後に、非線型ハッシュ関数の未探索ケースに対して、異なるページオフセットにまたがる退化集合に関する情報を伝播する方法を示す。
コントリビューションにより、Intel i7-9850Hで0.7秒、i9-10900Kで1.6秒のLLC消去セット生成が可能になった。
これは、それぞれ9倍と10倍の時間を要する最先端技術と比較して、大幅に改善されている。
関連論文リスト
- HashEvict: A Pre-Attention KV Cache Eviction Strategy using Locality-Sensitive Hashing [32.62377392686119]
本稿では,局所性に敏感なハッシュ(LSH)を用いてKVキャッシュを圧縮するアルゴリズムであるHashEvictを紹介する。
HashEvictは、推論、複数選択、長文検索、要約タスクのハイパフォーマンスを維持しながら、KVキャッシュを30%-70%圧縮することができる。
論文 参考訳(メタデータ) (2024-12-13T06:00:27Z) - RollingCache: Using Runtime Behavior to Defend Against Cache Side Channel Attacks [2.9221371172659616]
キャッシュセットに競合するアドレスの集合を動的に変更することで競合攻撃を防御するキャッシュ設計であるRollingCacheを紹介します。
RollingCacheはアドレスの暗号化/復号化、データ再配置、キャッシュパーティショニングに依存しない。
私たちのソリューションは、定義されたセキュリティドメインに依存せず、同じまたは他のコア上で実行されている攻撃者に対して防御することができます。
論文 参考訳(メタデータ) (2024-08-16T15:11:12Z) - Efficient Inference of Vision Instruction-Following Models with Elastic Cache [76.44955111634545]
我々は,命令追従型大規模視覚言語モデルの効率的なデプロイのための新しい戦略であるElastic Cacheを紹介する。
本稿では,冗長キャッシュを具現化する重要なキャッシュマージ戦略を提案する。
命令符号化では,キャッシュの重要性を評価するために周波数を利用する。
様々なLVLMの結果は、Elastic Cacheが効率を向上するだけでなく、言語生成における既存のプルーニングメソッドよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-25T15:29:05Z) - Hidden Web Caches Discovery [3.9272151228741716]
本稿では,タイミング解析を用いたキャッシュ検出手法を提案する。
このアプローチはキャッシュのステータスヘッダへの依存性を排除し、あらゆるWebサーバに適用できます。
論文 参考訳(メタデータ) (2024-07-23T08:58:06Z) - Training-Free Exponential Context Extension via Cascading KV Cache [49.608367376911694]
カスケードサブキャッシュバッファを利用して,最も関連性の高いトークンを選択的に保持する機構を導入する。
本手法は,1Mトークンのフラッシュアテンションと比較して,プリフィルステージ遅延を6.8倍削減する。
論文 参考訳(メタデータ) (2024-06-24T03:59:17Z) - Get More with LESS: Synthesizing Recurrence with KV Cache Compression for Efficient LLM Inference [78.65321721142624]
我々はキー値(KV)キャッシュによって課されるメモリボトルネックに焦点を当てる。
既存のKVキャッシュ手法は、比較的重要でないKVペアの大きなスワストを刈り取ったり、取り除いたりすることでこの問題に対処する。
本稿では,固定サイズキャッシュと退避型キャッシュを簡易に統合したLESSを提案する。
論文 参考訳(メタデータ) (2024-02-14T18:54:56Z) - Systematic Evaluation of Randomized Cache Designs against Cache Occupancy [11.018866935621045]
この研究は、ランダム化されたキャッシュに関する現在の文献において重要なギャップを埋める。
ほとんどのランダム化されたキャッシュ設計は競合ベースの攻撃のみを防御し、キャッシュ占有を考慮しない。
この結果から,ランダム化キャッシュ設計におけるキャッシュ占有側チャネルの検討の必要性が示唆された。
論文 参考訳(メタデータ) (2023-10-08T14:06:06Z) - BackCache: Mitigating Contention-Based Cache Timing Attacks by Hiding Cache Line Evictions [7.46215723037597]
L1データキャッシュ攻撃は、重大なプライバシーと機密性の脅威を引き起こす。
BackCacheは常にキャッシュミスではなくキャッシュヒットを達成し、L1データキャッシュに対する競合ベースのキャッシュタイミング攻撃を軽減します。
BackCacheは、解放されたキャッシュラインをL1データキャッシュから完全に連想的なバックアップキャッシュに配置して、排除を隠蔽する。
論文 参考訳(メタデータ) (2023-04-20T12:47:11Z) - Recurrent Dynamic Embedding for Video Object Segmentation [54.52527157232795]
一定サイズのメモリバンクを構築するためにRDE(Recurrent Dynamic Embedding)を提案する。
本稿では, SAM を長時間の動画でより堅牢にするため, トレーニング段階での無バイアス誘導損失を提案する。
また、メモリバンクの異なる品質のマスクの埋め込みをネットワークが修復できるように、新たな自己補正戦略を設計する。
論文 参考訳(メタデータ) (2022-05-08T02:24:43Z) - Accelerating Deep Learning Classification with Error-controlled
Approximate-key Caching [72.50506500576746]
我々は、近似キーキャッシングと名付けた新しいキャッシングパラダイムを提案する。
近似キャッシュはDL推論の負荷を軽減し、システムのスループットを向上するが、近似誤差を導入する。
我々は古典的なLRUと理想的なキャッシュのキャッシュシステム性能を解析的にモデル化し、期待される性能のトレース駆動評価を行い、提案手法の利点を最先端の類似キャッシュと比較した。
論文 参考訳(メタデータ) (2021-12-13T13:49:11Z) - HM4: Hidden Markov Model with Memory Management for Visual Place
Recognition [54.051025148533554]
自律運転における視覚的位置認識のための隠れマルコフモデルを提案する。
我々のアルゴリズムはHM$4$と呼ばれ、時間的ルックアヘッドを利用して、有望な候補画像をパッシブストレージとアクティブメモリ間で転送する。
固定被覆領域に対して一定の時間と空間推定が可能であることを示す。
論文 参考訳(メタデータ) (2020-11-01T08:49:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。