論文の概要: SEA Cache: A Performance-Efficient Countermeasure for Contention-based Attacks
- arxiv url: http://arxiv.org/abs/2405.20027v1
- Date: Thu, 30 May 2024 13:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 14:28:22.577025
- Title: SEA Cache: A Performance-Efficient Countermeasure for Contention-based Attacks
- Title(参考訳): SEAキャッシュ: 競合ベースの攻撃に対するパフォーマンス効率の良い対策
- Authors: Xiao Liu, Mark Zwolinski, Basel Halak,
- Abstract要約: 既存のセキュアキャッシュ設計であるCEASER-SHキャッシュを拡張し,SEAキャッシュを提案する。
両方のキャッシュにおける新しいキャッシュ構成は論理的連想性であり、キャッシュラインをマッピングされたキャッシュセットだけでなく、その後のキャッシュセットにも配置することができる。
8の論理的連想性を持つCEASER-SHキャッシュと比較すると、通常の保護ユーザに対して1の論理的連想性を持つSEAキャッシュ、高保護ユーザに対して16のSEAキャッシュは、通常の保護下でのユーザに対して約0.6%減少し、競合ベースの攻撃に対するより優れたセキュリティを提供するCycles Per Instructionペナルティを持つ。
- 参考スコア(独自算出の注目度): 4.144828482272047
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Many cache designs have been proposed to guard against contention-based side-channel attacks. One well-known type of cache is the randomized remapping cache. Many randomized remapping caches provide fixed or over protection, which leads to permanent performance degradation, or they provide flexible protection, but sacrifice performance against strong contention-based attacks. To improve the secure cache design, we extend an existing secure cache design, CEASER-SH cache, and propose the SEA cache. The novel cache configurations in both caches are logical associativity, which allows the cache line to be placed not only in its mapped cache set but also in the subsequent cache sets. SEA cache allows each user or each process to have a different local logical associativity. Hence, only those users or processes that request extra protection against contention-based attacks are protected with high logical associativity. Other users or processes can access the cache with lower latency and higher performance. Compared to a CEASER-SH cache with logical associativity of 8, an SEA cache with logical associativity of 1 for normal protection users and 16 for high protection users has a Cycles Per Instruction penalty that is about 0.6% less for users under normal protections and provides better security against contention-based attacks. Based on a 45nm technology library, and compared to a conventional cache, we estimate the power overhead is about 20% and the area overhead is 3.4%.
- Abstract(参考訳): 競合ベースのサイドチャネル攻撃を防ぐために多くのキャッシュ設計が提案されている。
良く知られたタイプのキャッシュは、ランダム化されたリマッピングキャッシュである。
多くのランダム化されたリマッピングキャッシュは、固定またはオーバープロテクションを提供し、永続的なパフォーマンス劣化を引き起こすか、柔軟なプロテクションを提供するが、強力な競合ベースの攻撃に対するパフォーマンスを犠牲にする。
セキュアキャッシュ設計を改善するため,既存のセキュアキャッシュ設計,CEASER-SHキャッシュを拡張し,SEAキャッシュを提案する。
両方のキャッシュにおける新しいキャッシュ構成は論理的連想性であり、キャッシュラインをマッピングされたキャッシュセットだけでなく、その後のキャッシュセットにも配置することができる。
SEAキャッシュは、各ユーザまたは各プロセスが異なるローカル論理的連想性を持つことを可能にする。
したがって、競合ベースの攻撃に対する追加の保護を要求するユーザーまたはプロセスだけが、高い論理的アソシエーションで保護される。
他のユーザやプロセスは、レイテンシが低く、より高いパフォーマンスでキャッシュにアクセスすることができる。
8の論理的連想性を持つCEASER-SHキャッシュと比較して、通常の保護ユーザに対して1の論理的連想性を持つSEAキャッシュと、高い保護ユーザに対しては16のサイクルパーインストラクションペナルティがあり、通常の保護下でのユーザに対しては約0.6%減少し、競合ベースの攻撃に対してより優れたセキュリティを提供する。
45nm技術ライブラリに基づいて、従来のキャッシュと比較して、電力オーバーヘッドは約20%、面積オーバーヘッドは3.4%と見積もっている。
関連論文リスト
- Auditing Prompt Caching in Language Model APIs [77.02079451561718]
大規模言語モデル(LLM)における即時キャッシュによるプライバシリークについて検討する。
OpenAIを含む7つのAPIプロバイダのユーザ間でのグローバルキャッシュ共有を検出します。
OpenAIの埋め込みモデルがデコーダのみのトランスフォーマーであることの証拠が見つかりました。
論文 参考訳(メタデータ) (2025-02-11T18:58:04Z) - Adaptive Semantic Prompt Caching with VectorQ [78.59891542553179]
ベクトル類似度メトリクスは、キャッシュ内の埋め込みプロンプトと最も近い隣人の類似度を定量化するために数値スコアを割り当てる。
この1つの大きさの閾値は、異なるプロンプトで不十分であることを示す。
埋め込みの複雑さと不確実性に適応する埋め込み固有のしきい値領域を学習するためのフレームワークであるVectorQを提案する。
論文 参考訳(メタデータ) (2025-02-06T04:16:20Z) - RollingCache: Using Runtime Behavior to Defend Against Cache Side Channel Attacks [2.9221371172659616]
キャッシュセットに競合するアドレスの集合を動的に変更することで競合攻撃を防御するキャッシュ設計であるRollingCacheを紹介します。
RollingCacheはアドレスの暗号化/復号化、データ再配置、キャッシュパーティショニングに依存しない。
私たちのソリューションは、定義されたセキュリティドメインに依存せず、同じまたは他のコア上で実行されている攻撃者に対して防御することができます。
論文 参考訳(メタデータ) (2024-08-16T15:11:12Z) - Efficient Inference of Vision Instruction-Following Models with Elastic Cache [76.44955111634545]
我々は,命令追従型大規模視覚言語モデルの効率的なデプロイのための新しい戦略であるElastic Cacheを紹介する。
本稿では,冗長キャッシュを具現化する重要なキャッシュマージ戦略を提案する。
命令符号化では,キャッシュの重要性を評価するために周波数を利用する。
様々なLVLMの結果は、Elastic Cacheが効率を向上するだけでなく、言語生成における既存のプルーニングメソッドよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-25T15:29:05Z) - Training-Free Exponential Context Extension via Cascading KV Cache [49.608367376911694]
カスケードサブキャッシュバッファを利用して,最も関連性の高いトークンを選択的に保持する機構を導入する。
本手法は,1Mトークンのフラッシュアテンションと比較して,プリフィルステージ遅延を6.8倍削減する。
論文 参考訳(メタデータ) (2024-06-24T03:59:17Z) - PCG: Mitigating Conflict-based Cache Side-channel Attacks with Prefetching [6.884097465523025]
本稿ではPCGと呼ばれる新しいプリフェッチ方式を提案する。
被害者関係のキャッシュ占有率の変更を追加し、攻撃者を妨害するために被害者関連のキャッシュ占有率の変更を減らすことを組み合わせている。
PCGは平均パフォーマンスが1.64%向上し、ハードウェアリソース消費の1.26%のオーバーヘッドしか発生しない。
論文 参考訳(メタデータ) (2024-05-06T07:26:53Z) - Systematic Evaluation of Randomized Cache Designs against Cache Occupancy [11.018866935621045]
この研究は、ランダム化されたキャッシュに関する現在の文献において重要なギャップを埋める。
ほとんどのランダム化されたキャッシュ設計は競合ベースの攻撃のみを防御し、キャッシュ占有を考慮しない。
この結果から,ランダム化キャッシュ設計におけるキャッシュ占有側チャネルの検討の必要性が示唆された。
論文 参考訳(メタデータ) (2023-10-08T14:06:06Z) - Random and Safe Cache Architecture to Defeat Cache Timing Attacks [5.142233612851766]
キャッシュは、メモリアクセスの処理に要する時間が異なるため、秘密情報を漏洩するために悪用されている。
攻撃と防御の空間を体系的に把握し、既存の防御がすべてのキャッシュタイミング攻撃に対処していないことを示す。
我々はRandom and Safe(RaS)キャッシュアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-09-28T05:08:16Z) - BackCache: Mitigating Contention-Based Cache Timing Attacks by Hiding Cache Line Evictions [7.46215723037597]
L1データキャッシュ攻撃は、重大なプライバシーと機密性の脅威を引き起こす。
BackCacheは常にキャッシュミスではなくキャッシュヒットを達成し、L1データキャッシュに対する競合ベースのキャッシュタイミング攻撃を軽減します。
BackCacheは、解放されたキャッシュラインをL1データキャッシュから完全に連想的なバックアップキャッシュに配置して、排除を隠蔽する。
論文 参考訳(メタデータ) (2023-04-20T12:47:11Z) - Accelerating Deep Learning Classification with Error-controlled
Approximate-key Caching [72.50506500576746]
我々は、近似キーキャッシングと名付けた新しいキャッシングパラダイムを提案する。
近似キャッシュはDL推論の負荷を軽減し、システムのスループットを向上するが、近似誤差を導入する。
我々は古典的なLRUと理想的なキャッシュのキャッシュシステム性能を解析的にモデル化し、期待される性能のトレース駆動評価を行い、提案手法の利点を最先端の類似キャッシュと比較した。
論文 参考訳(メタデータ) (2021-12-13T13:49:11Z) - Reinforcement Learning for Caching with Space-Time Popularity Dynamics [61.55827760294755]
キャッシングは次世代ネットワークにおいて重要な役割を果たすと想定されている。
コンテンツをインテリジェントにプリフェッチし、保存するためには、キャッシュノードは、何といつキャッシュするかを学ばなければならない。
本章では、近似キャッシングポリシー設計のための多目的強化学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-19T01:23:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。