論文の概要: DEAP Cache: Deep Eviction Admission and Prefetching for Cache
- arxiv url: http://arxiv.org/abs/2009.09206v1
- Date: Sat, 19 Sep 2020 10:23:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 20:42:59.273089
- Title: DEAP Cache: Deep Eviction Admission and Prefetching for Cache
- Title(参考訳): deapキャッシュ: 深いevictionの受け入れとキャッシュのプリフェッチ
- Authors: Ayush Mangal, Jitesh Jain, Keerat Kaur Guliani, Omkar Bhalerao
- Abstract要約: 機械学習を用いて3つのポリシーすべてを学習するエンド・ツー・エンドパイプラインを提案する。
我々は,大規模コーパスの事前学習の成功からインスピレーションを得て,タスクの専門的な埋め込みを学習する。
本手法は,機械学習を用いてキャッシュ戦略の3つのコンポーネントすべてを学習する"概念の保護"として提案する。
- 参考スコア(独自算出の注目度): 1.201626478128059
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent approaches for learning policies to improve caching, target just one
out of the prefetching, admission and eviction processes. In contrast, we
propose an end to end pipeline to learn all three policies using machine
learning. We also take inspiration from the success of pretraining on large
corpora to learn specialized embeddings for the task. We model prefetching as a
sequence prediction task based on past misses. Following previous works
suggesting that frequency and recency are the two orthogonal fundamental
attributes for caching, we use an online reinforcement learning technique to
learn the optimal policy distribution between two orthogonal eviction
strategies based on them. While previous approaches used the past as an
indicator of the future, we instead explicitly model the future frequency and
recency in a multi-task fashion with prefetching, leveraging the abilities of
deep networks to capture futuristic trends and use them for learning eviction
and admission. We also model the distribution of the data in an online fashion
using Kernel Density Estimation in our approach, to deal with the problem of
caching non-stationary data. We present our approach as a "proof of concept" of
learning all three components of cache strategies using machine learning and
leave improving practical deployment for future work.
- Abstract(参考訳): キャッシングを改善するための学習ポリシーの最近のアプローチは、プリフェッチ、入場、退行プロセスのうち1つだけをターゲットにしている。
対照的に,我々は機械学習を用いて3つのポリシーすべてを学ぶためのエンドツーエンドパイプラインを提案する。
また,大規模コーパスにおけるプレトレーニングの成功からインスピレーションを得て,タスクの専門的な埋め込みを学習する。
過去のミスに基づくシーケンス予測タスクとしてプレフェッチをモデル化する。
キャッシングのための2つの直交基本属性は周波数と直交性であることを示す先行研究に続いて,オンライン強化学習手法を用いて2つの直交エビテーション戦略間の最適ポリシー分布を学習する。
従来のアプローチでは,過去を未来を示す指標として用いていたが,その代わりに,深層ネットワークの能力を活用して未来的なトレンドを捉え,そこから解放と受け入れの学習に利用することで,マルチタスク方式で将来の頻度と傾向を明示的にモデル化した。
また,本手法では,非定常データキャッシュの問題に対処するため,カーネル密度推定を用いてオンライン形式でデータの分散をモデル化する。
我々は,このアプローチを機械学習を用いてキャッシュ戦略の3つの要素をすべて学習し,今後の作業のために実用的な配置を改善するための"概念の証明"として提示する。
関連論文リスト
- HarmoniCa: Harmonizing Training and Inference for Better Feature Cache in Diffusion Transformer Acceleration [18.170285241800798]
本稿では,新しい学習ベースキャッシングフレームワークを用いて,学習と推論を調和させる新しい手法を提案する。
従来の訓練パラダイムと比較して、新たに提案されたSDTは、認知プロセスの継続性を維持している。
IEPOは効率的なプロキシメカニズムを統合して、キャッシュされた機能の再使用による最終的な画像エラーを近似する。
論文 参考訳(メタデータ) (2024-10-02T16:34:29Z) - Adaptive Cross Batch Normalization for Metric Learning [75.91093210956116]
メトリクス学習はコンピュータビジョンの基本的な問題である。
蓄積した埋め込みが最新であることを保証することは、同様に重要であることを示す。
特に、蓄積した埋め込みと現在のトレーニングイテレーションにおける特徴埋め込みとの間の表現的ドリフトを回避する必要がある。
論文 参考訳(メタデータ) (2023-03-30T03:22:52Z) - PIVOT: Prompting for Video Continual Learning [50.80141083993668]
PIVOTは、画像領域から事前学習したモデルにおける広範な知識を活用する新しい手法である。
実験の結果,PIVOTは20タスクのアクティビティネット設定において,最先端の手法を27%向上することがわかった。
論文 参考訳(メタデータ) (2022-12-09T13:22:27Z) - Let Offline RL Flow: Training Conservative Agents in the Latent Space of
Normalizing Flows [58.762959061522736]
オフライン強化学習は、追加の環境相互作用なしに、事前に記録された、固定されたデータセット上でポリシーをトレーニングすることを目的としている。
我々は、最近、潜在行動空間における学習ポリシーを基礎として、生成モデルの構築に正規化フローの特別な形式を用いる。
提案手法が最近提案したアルゴリズムより優れていることを示すため,様々な移動タスクとナビゲーションタスクについて評価を行った。
論文 参考訳(メタデータ) (2022-11-20T21:57:10Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Pre-Train Your Loss: Easy Bayesian Transfer Learning with Informative
Priors [59.93972277761501]
我々は,教師付きあるいは自己指導型アプローチにより,ソースタスクから高い情報的後部を学習できることを実証した。
このシンプルなモジュラーアプローチは、様々な下流の分類とセグメンテーションタスクにおいて、大幅なパフォーマンス向上と、よりデータ効率のよい学習を可能にする。
論文 参考訳(メタデータ) (2022-05-20T16:19:30Z) - Knowledge Distillation as Efficient Pre-training: Faster Convergence,
Higher Data-efficiency, and Better Transferability [53.27240222619834]
効率的な事前学習としての知識蒸留は、学習した特徴表現を学習済みモデルから将来の下流タスクのための新しい学生モデルに効率的に転送することを目的としている。
提案手法は,3つの下流タスクにおける教師付き事前学習タスクと,10倍少ないデータと5倍少ない事前学習時間を必要とする9つの下流データセットとを比較検討する。
論文 参考訳(メタデータ) (2022-03-10T06:23:41Z) - Posterior Meta-Replay for Continual Learning [4.319932092720977]
連続学習(CL)アルゴリズムは最近、i.i.dでトレーニングする必要性を克服しようとするため、多くの注目を集めている。
未知のターゲットデータ分布からのサンプル。
ベイズ的視点を取り入れ,タスク固有の後方分布を継続的に学習することによって,cl問題に取り組むための原理的な方法を検討した。
論文 参考訳(メタデータ) (2021-03-01T17:08:35Z) - A Survey of Deep Learning for Data Caching in Edge Network [1.9798034349981157]
本稿では,エッジネットワークにおけるデータキャッシングにおけるディープラーニングの利用について要約する。
まず、コンテンツキャッシングにおける典型的な研究トピックを概説し、ネットワーク階層構造に基づく分類を定式化する。
次に、教師なし学習から教師なし学習、強化学習まで、多くの重要なディープラーニングアルゴリズムが提示される。
論文 参考訳(メタデータ) (2020-08-17T12:02:32Z) - Learning Forward Reuse Distance [1.8777512961936749]
近年のディープラーニング技術の進歩は、新しいインテリジェントキャッシュ置換ポリシーの設計を可能にする。
LSTMに基づく強力なリカレントニューラルネットワークモデルにより,キャッシュトレースのみを入力として,高い予測精度が得られることがわかった。
その結果、新しいキャッシュポリシは、最先端の実用的なポリシを19.2%改善し、平均してOPTよりも2.3%高いミス比しか発生しないことが示された。
論文 参考訳(メタデータ) (2020-07-31T05:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。