論文の概要: An Imitation Learning Approach for Cache Replacement
- arxiv url: http://arxiv.org/abs/2006.16239v2
- Date: Thu, 9 Jul 2020 21:13:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 14:22:38.195088
- Title: An Imitation Learning Approach for Cache Replacement
- Title(参考訳): キャッシュ置換のための模倣学習手法
- Authors: Evan Zheran Liu, Milad Hashemi, Kevin Swersky, Parthasarathy
Ranganathan, Junwhan Ahn
- Abstract要約: キャッシュアクセスパターンを自動的に学習するための模倣学習手法を提案する。
我々は過去のアクセスのみに条件付きポリシーを訓練し、多様な複雑なアクセスパターンでもベラディの情報を正確に近似する。
Parrotは、現在の最先端よりもキャッシュミス率を20%向上させる。
- 参考スコア(独自算出の注目度): 23.03767134871606
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Program execution speed critically depends on increasing cache hits, as cache
hits are orders of magnitude faster than misses. To increase cache hits, we
focus on the problem of cache replacement: choosing which cache line to evict
upon inserting a new line. This is challenging because it requires planning far
ahead and currently there is no known practical solution. As a result, current
replacement policies typically resort to heuristics designed for specific
common access patterns, which fail on more diverse and complex access patterns.
In contrast, we propose an imitation learning approach to automatically learn
cache access patterns by leveraging Belady's, an oracle policy that computes
the optimal eviction decision given the future cache accesses. While directly
applying Belady's is infeasible since the future is unknown, we train a policy
conditioned only on past accesses that accurately approximates Belady's even on
diverse and complex access patterns, and call this approach Parrot. When
evaluated on 13 of the most memory-intensive SPEC applications, Parrot
increases cache miss rates by 20% over the current state of the art. In
addition, on a large-scale web search benchmark, Parrot increases cache hit
rates by 61% over a conventional LRU policy. We release a Gym environment to
facilitate research in this area, as data is plentiful, and further
advancements can have significant real-world impact.
- Abstract(参考訳): プログラムの実行速度はキャッシュヒットの増加に大きく依存する。
キャッシュヒットを増やすため、キャッシュ置換の問題に焦点をあて、新しい行を挿入すると、どのキャッシュラインを削除すべきかという問題に焦点をあてる。
これまでの計画が必要であり、現在、既知の実用的な解決策がないため、これは難しいことです。
その結果、現在の代替ポリシーは、特定の共通アクセスパターン用に設計されたヒューリスティックスに依存しており、より多様で複雑なアクセスパターンに失敗する。
これとは対照的に,将来のキャッシュアクセスに対して最適な消去決定を演算するオラクルポリシーであるBeladyを利用して,キャッシュアクセスパターンを自動的に学習する模倣学習手法を提案する。
ベラーディの直接適用は、未来が不明なため不可能であるが、過去のアクセスのみを条件とした政策を訓練し、多様な複雑なアクセスパターンにも正確に近似し、このアプローチをParrotと呼ぶ。
最もメモリ集約的なSPECアプリケーションの13で評価すると、Parrotは現在の技術よりもキャッシュミス率を20%向上させる。
さらに、大規模なWeb検索ベンチマークでは、従来のLRUポリシーよりもキャッシュヒット率を61%向上させる。
データは豊富であり、さらなる進歩は現実世界に大きな影響を与える可能性があるので、この分野の研究を促進するためのジム環境をリリースします。
関連論文リスト
- On the Regret of Coded Caching with Adversarial Requests [7.171698704686835]
オンライン学習フレームワークにおいて、よく知られた符号化キャッシュ問題について検討し、リクエストが順次到着する。
本稿では、Follow-The-Perturbed-Leader原則に基づくキャッシュポリシーを導入し、任意の時間水平線Tにおいて、算術的O(sqrt(T))に対するサブ線形後悔を実現することを示す。
論文 参考訳(メタデータ) (2024-09-19T01:13:03Z) - Efficient Inference of Vision Instruction-Following Models with Elastic Cache [76.44955111634545]
我々は,命令追従型大規模視覚言語モデルの効率的なデプロイのための新しい戦略であるElastic Cacheを紹介する。
本稿では,冗長キャッシュを具現化する重要なキャッシュマージ戦略を提案する。
命令符号化では,キャッシュの重要性を評価するために周波数を利用する。
様々なLVLMの結果は、Elastic Cacheが効率を向上するだけでなく、言語生成における既存のプルーニングメソッドよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-25T15:29:05Z) - Training-Free Exponential Context Extension via Cascading KV Cache [49.608367376911694]
カスケードサブキャッシュバッファを利用して,最も関連性の高いトークンを選択的に保持する機構を導入する。
本手法は,1Mトークンのフラッシュアテンションと比較して,プリフィルステージ遅延を6.8倍削減する。
論文 参考訳(メタデータ) (2024-06-24T03:59:17Z) - CORM: Cache Optimization with Recent Message for Large Language Model Inference [57.109354287786154]
メモリフットプリントを大幅に最小化するKVキャッシュを最適化する革新的な手法を提案する。
KVキャッシュ消去ポリシーであるCORMは、モデル微調整を必要とせずに、推論に必要なキーと値のペアを動的に保持する。
検証の結果,CORMはKVキャッシュの推論メモリ使用量を最大70%削減し,LongBenchの6つのタスクで性能劣化を無視できることがわかった。
論文 参考訳(メタデータ) (2024-04-24T16:11:54Z) - A Learning-Based Caching Mechanism for Edge Content Delivery [2.412158290827225]
5GネットワークとIoT(Internet of Things)の台頭により、ネットワークのエッジはますます拡大している。
このシフトは、特に限られたキャッシュストレージとエッジにおける多様な要求パターンのために、ユニークな課題をもたらす。
HR-Cacheは、ハザードレート(HR)順序付けの原則に基づく学習ベースのキャッシュフレームワークである。
論文 参考訳(メタデータ) (2024-02-05T08:06:03Z) - Optimistic No-regret Algorithms for Discrete Caching [6.182368229968862]
楽観的な学習の文脈において,ファイル全体を限られた容量でキャッシュに格納するという問題を体系的に検討する。
予測支援オンラインキャッシュのための普遍的な下位境界を提供し、様々なパフォーマンス・複雑さのトレードオフを持つ一連のポリシーを設計する。
我々の結果は、最近提案されたすべてのオンラインキャッシュポリシーを大幅に改善し、オラクルの予測を活用できないため、後悔する$O(sqrtT)しか提供できません。
論文 参考訳(メタデータ) (2022-08-15T09:18:41Z) - Accelerating Deep Learning Classification with Error-controlled
Approximate-key Caching [72.50506500576746]
我々は、近似キーキャッシングと名付けた新しいキャッシングパラダイムを提案する。
近似キャッシュはDL推論の負荷を軽減し、システムのスループットを向上するが、近似誤差を導入する。
我々は古典的なLRUと理想的なキャッシュのキャッシュシステム性能を解析的にモデル化し、期待される性能のトレース駆動評価を行い、提案手法の利点を最先端の類似キャッシュと比較した。
論文 参考訳(メタデータ) (2021-12-13T13:49:11Z) - ARCH: Efficient Adversarial Regularized Training with Caching [91.74682538906691]
逆正則化は、多くの自然言語処理タスクにおけるモデル一般化を改善することができる。
本稿では,複数のエポック毎に摂動を発生・キャッシュする新たな逆正則化手法ARCHを提案する。
提案手法をニューラルネットワーク翻訳と自然言語理解タスクのセットで評価する。
論文 参考訳(メタデータ) (2021-09-15T02:05:37Z) - Learning Forward Reuse Distance [1.8777512961936749]
近年のディープラーニング技術の進歩は、新しいインテリジェントキャッシュ置換ポリシーの設計を可能にする。
LSTMに基づく強力なリカレントニューラルネットワークモデルにより,キャッシュトレースのみを入力として,高い予測精度が得られることがわかった。
その結果、新しいキャッシュポリシは、最先端の実用的なポリシを19.2%改善し、平均してOPTよりも2.3%高いミス比しか発生しないことが示された。
論文 参考訳(メタデータ) (2020-07-31T05:57:50Z) - Reinforcement Learning for Caching with Space-Time Popularity Dynamics [61.55827760294755]
キャッシングは次世代ネットワークにおいて重要な役割を果たすと想定されている。
コンテンツをインテリジェントにプリフェッチし、保存するためには、キャッシュノードは、何といつキャッシュするかを学ばなければならない。
本章では、近似キャッシングポリシー設計のための多目的強化学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-19T01:23:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。