論文の概要: Tight Inter-Core Cache Contention Analysis for WCET Estimation on Multicore Systems
- arxiv url: http://arxiv.org/abs/2508.13863v1
- Date: Tue, 19 Aug 2025 14:30:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.950147
- Title: Tight Inter-Core Cache Contention Analysis for WCET Estimation on Multicore Systems
- Title(参考訳): マルチコアシステムにおけるWCET推定のためのコア間キャッシュ競合解析
- Authors: Shuai Zhao, Jieyu Jiang, Shenlin Cai, Yaowei Liang, Chen Jie, Yinjie Fang, Wei Zhang, Guoquan Zhang, Yaoyao Gu, Xiang Xiao, Wei Qin, Xiangzhen Ouyang, Wanli Chang,
- Abstract要約: マルチコアアーキテクチャのWCET推定は、複数のコアで共有されるキャッシュ上の複雑なアクセスのため、特に難しい。
本稿では,タスク中のプログラム領域の順序に基づいて,リモートアクセスが発生した場合に影響を受ける可能性のあるメモリ参照を最初に同定する。
本研究では,タスクのコア間キャッシュ干渉が動的プログラミングによって得られることを示す。
- 参考スコア(独自算出の注目度): 6.654248905346505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: WCET (Worst-Case Execution Time) estimation on multicore architecture is particularly challenging mainly due to the complex accesses over cache shared by multiple cores. Existing analysis identifies possible contentions between parallel tasks by leveraging the partial order of the tasks or their program regions. Unfortunately, they overestimate the number of cache misses caused by a remote block access without considering the actual cache state and the number of accesses. This paper reports a new analysis for inter-core cache contention. Based on the order of program regions in a task, we first identify memory references that could be affected if a remote access occurs in a region. Afterwards, a fine-grained contention analysis is constructed that computes the number of cache misses based on the access quantity of local and remote blocks. We demonstrate that the overall inter-core cache interference of a task can be obtained via dynamic programming. Experiments show that compared to existing methods, the proposed analysis reduces inter-core cache interference and WCET estimations by 52.31% and 8.94% on average, without significantly increasing computation overhead.
- Abstract(参考訳): マルチコアアーキテクチャにおけるWCET(Worst-Case Execution Time)推定は、主に複数のコアが共有するキャッシュ上の複雑なアクセスのため、特に困難である。
既存の分析では、タスクやプログラム領域の部分的な順序を利用して、並列タスク間の競合を識別する。
残念ながら、実際のキャッシュ状態とアクセス数を考慮せずに、リモートブロックアクセスによるキャッシュミス数を過大評価している。
本稿では,コア間キャッシュ競合の新しい解析法について報告する。
タスク内のプログラム領域の順序に基づいて、まず、リモートアクセスが発生した場合に影響を受ける可能性のあるメモリ参照を識別する。
その後、ローカルブロックとリモートブロックのアクセス量に基づいてキャッシュミス数を算出する、きめ細かい競合解析を構築する。
本研究では,タスクのコア間キャッシュ干渉が動的プログラミングによって得られることを示す。
従来の手法と比較して,提案手法は計算オーバーヘッドを大幅に増加させることなく,コア間キャッシュ干渉とWCET推定を平均52.31%,8.94%削減することを示した。
関連論文リスト
- vCache: Verified Semantic Prompt Caching [75.87215136638828]
本稿では,ユーザ定義エラー率保証を備えた最初の検証済みセマンティックキャッシュであるvCacheを提案する。
オンライン学習アルゴリズムを使用して、キャッシュされたプロンプト毎に最適な閾値を推定し、追加のトレーニングなしで信頼性の高いキャッシュ応答を可能にする。
我々の実験によると、vCacheは特定のエラー境界を一貫して満たし、最先端の静的な閾値と微調整された埋め込みベースラインより優れています。
論文 参考訳(メタデータ) (2025-02-06T04:16:20Z) - InputSnatch: Stealing Input in LLM Services via Timing Side-Channel Attacks [9.748438507132207]
大規模言語モデル (LLM) には広範な知識と質問応答能力がある。
キャッシュ共有メソッドは、キャッシュされた状態や、同じまたは同様の推論要求に対するレスポンスを再利用することで、効率を高めるために一般的に使用される。
LLMの推論において入力盗難を実行するための新しいタイミングベースのサイドチャネル攻撃を提案する。
論文 参考訳(メタデータ) (2024-11-27T10:14:38Z) - SCALM: Towards Semantic Caching for Automated Chat Services with Large Language Models [15.742472622602557]
セマンティック分析を重視し,重要なキャッシュエントリやパターンを識別する新しいキャッシュアーキテクチャであるSCALMを提案する。
評価の結果,SCALMはキャッシュヒット率を増大させ,LLMChatサービスの運用コストを低減させることがわかった。
論文 参考訳(メタデータ) (2024-05-24T08:16:22Z) - Accelerating Deep Learning Classification with Error-controlled
Approximate-key Caching [72.50506500576746]
我々は、近似キーキャッシングと名付けた新しいキャッシングパラダイムを提案する。
近似キャッシュはDL推論の負荷を軽減し、システムのスループットを向上するが、近似誤差を導入する。
我々は古典的なLRUと理想的なキャッシュのキャッシュシステム性能を解析的にモデル化し、期待される性能のトレース駆動評価を行い、提案手法の利点を最先端の類似キャッシュと比較した。
論文 参考訳(メタデータ) (2021-12-13T13:49:11Z) - Caching Placement and Resource Allocation for Cache-Enabling UAV NOMA
Networks [87.6031308969681]
本稿では,非直交多重アクセス(NOMA)をサポートした大規模アクセス機能を有する無人航空機(UAV)セルネットワークについて検討する。
コンテンツ配信遅延最小化のための長期キャッシュ配置と資源配分最適化問題をマルコフ決定プロセス(MDP)として定式化する。
そこで我々は,UAVがemphsoft $varepsilon$-greedy戦略を用いて行動の学習と選択を行い,行動と状態の最適な一致を探索する,Qラーニングに基づくキャッシュ配置とリソース割り当てアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-12T08:33:51Z) - Reinforcement Learning for Caching with Space-Time Popularity Dynamics [61.55827760294755]
キャッシングは次世代ネットワークにおいて重要な役割を果たすと想定されている。
コンテンツをインテリジェントにプリフェッチし、保存するためには、キャッシュノードは、何といつキャッシュするかを学ばなければならない。
本章では、近似キャッシングポリシー設計のための多目的強化学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-19T01:23:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。