論文の概要: SEA Cache: A Performance-Efficient Countermeasure for Contention-based Attacks
- arxiv url: http://arxiv.org/abs/2405.20027v1
- Date: Thu, 30 May 2024 13:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 14:28:22.577025
- Title: SEA Cache: A Performance-Efficient Countermeasure for Contention-based Attacks
- Title(参考訳): SEAキャッシュ: 競合ベースの攻撃に対するパフォーマンス効率の良い対策
- Authors: Xiao Liu, Mark Zwolinski, Basel Halak,
- Abstract要約: 既存のセキュアキャッシュ設計であるCEASER-SHキャッシュを拡張し,SEAキャッシュを提案する。
両方のキャッシュにおける新しいキャッシュ構成は論理的連想性であり、キャッシュラインをマッピングされたキャッシュセットだけでなく、その後のキャッシュセットにも配置することができる。
8の論理的連想性を持つCEASER-SHキャッシュと比較すると、通常の保護ユーザに対して1の論理的連想性を持つSEAキャッシュ、高保護ユーザに対して16のSEAキャッシュは、通常の保護下でのユーザに対して約0.6%減少し、競合ベースの攻撃に対するより優れたセキュリティを提供するCycles Per Instructionペナルティを持つ。
- 参考スコア(独自算出の注目度): 4.144828482272047
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Many cache designs have been proposed to guard against contention-based side-channel attacks. One well-known type of cache is the randomized remapping cache. Many randomized remapping caches provide fixed or over protection, which leads to permanent performance degradation, or they provide flexible protection, but sacrifice performance against strong contention-based attacks. To improve the secure cache design, we extend an existing secure cache design, CEASER-SH cache, and propose the SEA cache. The novel cache configurations in both caches are logical associativity, which allows the cache line to be placed not only in its mapped cache set but also in the subsequent cache sets. SEA cache allows each user or each process to have a different local logical associativity. Hence, only those users or processes that request extra protection against contention-based attacks are protected with high logical associativity. Other users or processes can access the cache with lower latency and higher performance. Compared to a CEASER-SH cache with logical associativity of 8, an SEA cache with logical associativity of 1 for normal protection users and 16 for high protection users has a Cycles Per Instruction penalty that is about 0.6% less for users under normal protections and provides better security against contention-based attacks. Based on a 45nm technology library, and compared to a conventional cache, we estimate the power overhead is about 20% and the area overhead is 3.4%.
- Abstract(参考訳): 競合ベースのサイドチャネル攻撃を防ぐために多くのキャッシュ設計が提案されている。
良く知られたタイプのキャッシュは、ランダム化されたリマッピングキャッシュである。
多くのランダム化されたリマッピングキャッシュは、固定またはオーバープロテクションを提供し、永続的なパフォーマンス劣化を引き起こすか、柔軟なプロテクションを提供するが、強力な競合ベースの攻撃に対するパフォーマンスを犠牲にする。
セキュアキャッシュ設計を改善するため,既存のセキュアキャッシュ設計,CEASER-SHキャッシュを拡張し,SEAキャッシュを提案する。
両方のキャッシュにおける新しいキャッシュ構成は論理的連想性であり、キャッシュラインをマッピングされたキャッシュセットだけでなく、その後のキャッシュセットにも配置することができる。
SEAキャッシュは、各ユーザまたは各プロセスが異なるローカル論理的連想性を持つことを可能にする。
したがって、競合ベースの攻撃に対する追加の保護を要求するユーザーまたはプロセスだけが、高い論理的アソシエーションで保護される。
他のユーザやプロセスは、レイテンシが低く、より高いパフォーマンスでキャッシュにアクセスすることができる。
8の論理的連想性を持つCEASER-SHキャッシュと比較して、通常の保護ユーザに対して1の論理的連想性を持つSEAキャッシュと、高い保護ユーザに対しては16のサイクルパーインストラクションペナルティがあり、通常の保護下でのユーザに対しては約0.6%減少し、競合ベースの攻撃に対してより優れたセキュリティを提供する。
45nm技術ライブラリに基づいて、従来のキャッシュと比較して、電力オーバーヘッドは約20%、面積オーバーヘッドは3.4%と見積もっている。
関連論文リスト
- RollingCache: Using Runtime Behavior to Defend Against Cache Side Channel Attacks [2.9221371172659616]
キャッシュセットに競合するアドレスの集合を動的に変更することで競合攻撃を防御するキャッシュ設計であるRollingCacheを紹介します。
RollingCacheはアドレスの暗号化/復号化、データ再配置、キャッシュパーティショニングに依存しない。
私たちのソリューションは、定義されたセキュリティドメインに依存せず、同じまたは他のコア上で実行されている攻撃者に対して防御することができます。
論文 参考訳(メタデータ) (2024-08-16T15:11:12Z) - Efficient Inference of Vision Instruction-Following Models with Elastic Cache [76.44955111634545]
我々は,命令追従型大規模視覚言語モデルの効率的なデプロイのための新しい戦略であるElastic Cacheを紹介する。
本稿では,冗長キャッシュを具現化する重要なキャッシュマージ戦略を提案する。
命令符号化では,キャッシュの重要性を評価するために周波数を利用する。
様々なLVLMの結果は、Elastic Cacheが効率を向上するだけでなく、言語生成における既存のプルーニングメソッドよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-25T15:29:05Z) - Digital Twin-Assisted Data-Driven Optimization for Reliable Edge Caching in Wireless Networks [60.54852710216738]
我々はD-RECと呼ばれる新しいデジタルツインアシスト最適化フレームワークを導入し、次世代無線ネットワークにおける信頼性の高いキャッシュを実現する。
信頼性モジュールを制約付き決定プロセスに組み込むことで、D-RECは、有利な制約に従うために、アクション、報酬、状態を適応的に調整することができる。
論文 参考訳(メタデータ) (2024-06-29T02:40:28Z) - Training-Free Exponential Context Extension via Cascading KV Cache [49.608367376911694]
カスケードサブキャッシュバッファを利用して,最も関連性の高いトークンを選択的に保持する機構を導入する。
本手法は,1Mトークンのフラッシュアテンションと比較して,プリフィルステージ遅延を6.8倍削減する。
論文 参考訳(メタデータ) (2024-06-24T03:59:17Z) - PCG: Mitigating Conflict-based Cache Side-channel Attacks with Prefetching [6.884097465523025]
本稿ではPCGと呼ばれる新しいプリフェッチ方式を提案する。
被害者関係のキャッシュ占有率の変更を追加し、攻撃者を妨害するために被害者関連のキャッシュ占有率の変更を減らすことを組み合わせている。
PCGは平均パフォーマンスが1.64%向上し、ハードウェアリソース消費の1.26%のオーバーヘッドしか発生しない。
論文 参考訳(メタデータ) (2024-05-06T07:26:53Z) - Get More with LESS: Synthesizing Recurrence with KV Cache Compression for Efficient LLM Inference [78.65321721142624]
我々はキー値(KV)キャッシュによって課されるメモリボトルネックに焦点を当てる。
既存のKVキャッシュ手法は、比較的重要でないKVペアの大きなスワストを刈り取ったり、取り除いたりすることでこの問題に対処する。
本稿では,固定サイズキャッシュと退避型キャッシュを簡易に統合したLESSを提案する。
論文 参考訳(メタデータ) (2024-02-14T18:54:56Z) - On the Amplification of Cache Occupancy Attacks in Randomized Cache Architectures [11.018866935621045]
MIRAGEは,エビクションベースの攻撃に対して耐性があるといわれ,キャッシュ占有率の増大を図っている。
我々は,MIRAGEのグローバルな消去特性を利用して,バイトレベルの粒度を持つ被覆チャネルを実証する。
攻撃ベクトルを拡張して、ワークロードのサイドチャネル、テンプレートベースのフィンガープリントをクロスコア設定に含めます。
論文 参考訳(メタデータ) (2023-10-08T14:06:06Z) - Random and Safe Cache Architecture to Defeat Cache Timing Attacks [5.142233612851766]
キャッシュは、メモリアクセスの処理に要する時間が異なるため、秘密情報を漏洩するために悪用されている。
攻撃と防御の空間を体系的に把握し、既存の防御がすべてのキャッシュタイミング攻撃に対処していないことを示す。
我々はRandom and Safe(RaS)キャッシュアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-09-28T05:08:16Z) - BackCache: Mitigating Contention-Based Cache Timing Attacks by Hiding Cache Line Evictions [7.46215723037597]
L1データキャッシュ攻撃は、重大なプライバシーと機密性の脅威を引き起こす。
BackCacheは常にキャッシュミスではなくキャッシュヒットを達成し、L1データキャッシュに対する競合ベースのキャッシュタイミング攻撃を軽減します。
BackCacheは、解放されたキャッシュラインをL1データキャッシュから完全に連想的なバックアップキャッシュに配置して、排除を隠蔽する。
論文 参考訳(メタデータ) (2023-04-20T12:47:11Z) - Accelerating Deep Learning Classification with Error-controlled
Approximate-key Caching [72.50506500576746]
我々は、近似キーキャッシングと名付けた新しいキャッシングパラダイムを提案する。
近似キャッシュはDL推論の負荷を軽減し、システムのスループットを向上するが、近似誤差を導入する。
我々は古典的なLRUと理想的なキャッシュのキャッシュシステム性能を解析的にモデル化し、期待される性能のトレース駆動評価を行い、提案手法の利点を最先端の類似キャッシュと比較した。
論文 参考訳(メタデータ) (2021-12-13T13:49:11Z) - Reinforcement Learning for Caching with Space-Time Popularity Dynamics [61.55827760294755]
キャッシングは次世代ネットワークにおいて重要な役割を果たすと想定されている。
コンテンツをインテリジェントにプリフェッチし、保存するためには、キャッシュノードは、何といつキャッシュするかを学ばなければならない。
本章では、近似キャッシングポリシー設計のための多目的強化学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-19T01:23:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。