論文の概要: Phoebe: Reuse-Aware Online Caching with Reinforcement Learning for
Emerging Storage Models
- arxiv url: http://arxiv.org/abs/2011.07160v1
- Date: Fri, 13 Nov 2020 22:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 23:43:51.982760
- Title: Phoebe: Reuse-Aware Online Caching with Reinforcement Learning for
Emerging Storage Models
- Title(参考訳): Phoebe: 新たなストレージモデルのための強化学習を備えたリユース対応オンラインキャッシュ
- Authors: Nan Wu, Pengcheng Li
- Abstract要約: Phoebeは、最適なオンラインキャッシュのための再利用対応強化学習フレームワークである。
実験の結果,PhoebeはLRUと最先端のオンライン学習ベースのキャッシュポリシとのキャッシュミス率のギャップを埋めることができた。
- 参考スコア(独自算出の注目度): 8.932281655601495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With data durability, high access speed, low power efficiency and byte
addressability, NVMe and SSD, which are acknowledged representatives of
emerging storage technologies, have been applied broadly in many areas.
However, one key issue with high-performance adoption of these technologies is
how to properly define intelligent cache layers such that the performance gap
between emerging technologies and main memory can be well bridged. To this end,
we propose Phoebe, a reuse-aware reinforcement learning framework for the
optimal online caching that is applicable for a wide range of emerging storage
models. By continuous interacting with the cache environment and the data
stream, Phoebe is capable to extract critical temporal data dependency and
relative positional information from a single trace, becoming ever smarter over
time. To reduce training overhead during online learning, we utilize periodical
training to amortize costs. Phoebe is evaluated on a set of Microsoft cloud
storage workloads. Experiment results show that Phoebe is able to close the gap
of cache miss rate from LRU and a state-of-the-art online learning based cache
policy to the Belady's optimal policy by 70.3% and 52.6%, respectively.
- Abstract(参考訳): データ耐久性、高アクセス速度、低電力効率、バイトアドレス対応性により、新しいストレージ技術の代表的なものとして認識されているnvmeとssdは、多くの領域で広く適用されている。
しかし、これらのテクノロジーを高性能に採用する上での大きな問題は、新しい技術とメインメモリのパフォーマンスギャップを十分にブリッジできるように、インテリジェントなキャッシュ層を適切に定義する方法である。
この目的のために, 多様な新しいストレージモデルに適用可能な最適オンラインキャッシュのための, 再利用対応強化学習フレームワークであるPhoebeを提案する。
キャッシュ環境とデータストリームとの継続的なインタラクションによって、フェーベは重要な時間的データ依存性と相対的な位置情報を単一のトレースから抽出し、時間とともに賢くなっていく。
オンライン学習におけるトレーニングのオーバーヘッドを軽減するために,定期的なトレーニングを用いてコストを償却する。
PhoebeはMicrosoftのクラウドストレージワークロードのセットで評価されている。
実験の結果、フェーベはlruと最先端のオンライン学習ベースのキャッシュポリシーとのキャッシュミス率の差を、ベラディの最適ポリシーにそれぞれ70.3%と52.6%の差で埋めることができた。
関連論文リスト
- Efficient Inference of Vision Instruction-Following Models with Elastic Cache [76.44955111634545]
我々は,命令追従型大規模視覚言語モデルの効率的なデプロイのための新しい戦略であるElastic Cacheを紹介する。
本稿では,冗長キャッシュを具現化する重要なキャッシュマージ戦略を提案する。
命令符号化では,キャッシュの重要性を評価するために周波数を利用する。
様々なLVLMの結果は、Elastic Cacheが効率を向上するだけでなく、言語生成における既存のプルーニングメソッドよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-25T15:29:05Z) - Digital Twin-Assisted Data-Driven Optimization for Reliable Edge Caching in Wireless Networks [60.54852710216738]
我々はD-RECと呼ばれる新しいデジタルツインアシスト最適化フレームワークを導入し、次世代無線ネットワークにおける信頼性の高いキャッシュを実現する。
信頼性モジュールを制約付き決定プロセスに組み込むことで、D-RECは、有利な制約に従うために、アクション、報酬、状態を適応的に調整することができる。
論文 参考訳(メタデータ) (2024-06-29T02:40:28Z) - Training-Free Exponential Context Extension via Cascading KV Cache [49.608367376911694]
カスケードサブキャッシュバッファを利用して,最も関連性の高いトークンを選択的に保持する機構を導入する。
本手法は,1Mトークンのフラッシュアテンションと比較して,プリフィルステージ遅延を6.8倍削減する。
論文 参考訳(メタデータ) (2024-06-24T03:59:17Z) - FedCache 2.0: Federated Edge Learning with Knowledge Caching and Dataset Distillation [24.220913547520066]
Federated Edge Learning (FEL)は、エッジデバイスが機械学習モデルを協調的にトレーニングできるようにするための、有望なアプローチとして登場した。
その利点にもかかわらず、実用的なFELデプロイメントは、デバイス制約やデバイスサーバ間のインタラクションに関連する重大な課題に直面している。
FedCache 2.0は、これらの課題に同時に対処する、新しいパーソナライズされたFELアーキテクチャである。
論文 参考訳(メタデータ) (2024-05-22T06:19:43Z) - A Learning-Based Caching Mechanism for Edge Content Delivery [2.412158290827225]
5GネットワークとIoT(Internet of Things)の台頭により、ネットワークのエッジはますます拡大している。
このシフトは、特に限られたキャッシュストレージとエッジにおける多様な要求パターンのために、ユニークな課題をもたらす。
HR-Cacheは、ハザードレート(HR)順序付けの原則に基づく学習ベースのキャッシュフレームワークである。
論文 参考訳(メタデータ) (2024-02-05T08:06:03Z) - Memory-efficient Reinforcement Learning with Value-based Knowledge
Consolidation [14.36005088171571]
本稿では,深部Q-networkアルゴリズムに基づくメモリ効率向上学習アルゴリズムを提案する。
提案アルゴリズムは,対象のQネットワークから現在のQネットワークへの知識の統合により,高いサンプル効率を低下させる。
論文 参考訳(メタデータ) (2022-05-22T17:02:51Z) - Accelerating Deep Learning Classification with Error-controlled
Approximate-key Caching [72.50506500576746]
我々は、近似キーキャッシングと名付けた新しいキャッシングパラダイムを提案する。
近似キャッシュはDL推論の負荷を軽減し、システムのスループットを向上するが、近似誤差を導入する。
我々は古典的なLRUと理想的なキャッシュのキャッシュシステム性能を解析的にモデル化し、期待される性能のトレース駆動評価を行い、提案手法の利点を最先端の類似キャッシュと比較した。
論文 参考訳(メタデータ) (2021-12-13T13:49:11Z) - Fast Class-wise Updating for Online Hashing [196.14748396106955]
本稿では,FCOH(Fast Class-wise Updating for Online Hashing)と呼ばれる新しいオンラインハッシュ方式を提案する。
クラスワイズ更新法は、バイナリコード学習を分解し、代わりにクラスワイズ方式でハッシュ関数を更新する。
オンラインの効率をより高めるために,異なるバイナリ制約を独立に扱うことで,オンライントレーニングを高速化する半緩和最適化を提案する。
論文 参考訳(メタデータ) (2020-12-01T07:41:54Z) - Learning Forward Reuse Distance [1.8777512961936749]
近年のディープラーニング技術の進歩は、新しいインテリジェントキャッシュ置換ポリシーの設計を可能にする。
LSTMに基づく強力なリカレントニューラルネットワークモデルにより,キャッシュトレースのみを入力として,高い予測精度が得られることがわかった。
その結果、新しいキャッシュポリシは、最先端の実用的なポリシを19.2%改善し、平均してOPTよりも2.3%高いミス比しか発生しないことが示された。
論文 参考訳(メタデータ) (2020-07-31T05:57:50Z) - Reinforcement Learning for Caching with Space-Time Popularity Dynamics [61.55827760294755]
キャッシングは次世代ネットワークにおいて重要な役割を果たすと想定されている。
コンテンツをインテリジェントにプリフェッチし、保存するためには、キャッシュノードは、何といつキャッシュするかを学ばなければならない。
本章では、近似キャッシングポリシー設計のための多目的強化学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-19T01:23:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。