論文の概要: PA-Cache: Evolving Learning-Based Popularity-Aware Content Caching in
Edge Networks
- arxiv url: http://arxiv.org/abs/2002.08805v2
- Date: Thu, 10 Dec 2020 02:54:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 08:20:36.342711
- Title: PA-Cache: Evolving Learning-Based Popularity-Aware Content Caching in
Edge Networks
- Title(参考訳): PAキャッシュ:エッジネットワークにおける学習ベースの人気コンテンツキャッシュの進化
- Authors: Qilin Fan, Xiuhua Li, Jian Li, Qiang He, Kai Wang, Junhao Wen
- Abstract要約: 本稿では,エッジネットワークにおけるPAキャッシュという,学習ベースのコンテンツキャッシュポリシを提案する。
時間変化のあるコンテンツの人気を適応的に学習し、キャッシュが満杯になったときにどのコンテンツを置き換えるべきかを決定する。
提案するPAキャッシュの性能を,大規模オンラインビデオオンデマンドサービスプロバイダによる実世界のトレースで広範囲に評価した。
- 参考スコア(独自算出の注目度): 14.939950326112045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As ubiquitous and personalized services are growing boomingly, an
increasingly large amount of traffic is generated over the network by massive
mobile devices. As a result, content caching is gradually extending to network
edges to provide low-latency services, improve quality of service, and reduce
redundant data traffic. Compared to the conventional content delivery networks,
caches in edge networks with smaller sizes usually have to accommodate more
bursty requests. In this paper, we propose an evolving learning-based content
caching policy, named PA-Cache in edge networks. It adaptively learns
time-varying content popularity and determines which contents should be
replaced when the cache is full. Unlike conventional deep neural networks
(DNNs), which learn a fine-tuned but possibly outdated or biased prediction
model using the entire training dataset with high computational complexity,
PA-Cache weighs a large set of content features and trains the multi-layer
recurrent neural network from shallow to deeper when more requests arrive over
time. We extensively evaluate the performance of our proposed PA-Cache on
real-world traces from a large online video-on-demand service provider. \rb{The
results show that PA-Cache outperforms existing popular caching algorithms and
approximates the optimal algorithm with only a 3.8\% performance gap when the
cache percentage is 1.0\%}. PA-Cache also significantly reduces the
computational cost compared to conventional DNN-based approaches.
- Abstract(参考訳): ユビキタスでパーソナライズされたサービスが急成長するにつれ、巨大なモバイルデバイスによってネットワーク上で大量のトラフィックが生成されるようになっている。
その結果、コンテンツキャッシングは徐々にネットワークエッジに拡張され、低レイテンシサービスを提供し、サービスの品質を改善し、冗長なデータトラフィックを減らすことができる。
従来のコンテンツ配信ネットワークと比較して、サイズが小さいエッジネットワークのキャッシュは、通常、よりバーストな要求に対応する必要がある。
本稿では,エッジネットワークにおけるPAキャッシュという,学習ベースのコンテンツキャッシュポリシを提案する。
時間変化のあるコンテンツの人気を適応的に学習し、キャッシュが満杯になったらどのコンテンツを置き換えるべきかを判断する。
計算複雑性の高いトレーニングデータセット全体を使用して、微調整された、あるいは時代遅れあるいは偏りのある予測モデルを学ぶ従来のディープニューラルネットワーク(dnns)とは異なり、pa-cacheは大量のコンテンツ機能を重み付け、より多くのリクエストが経つにつれて、多層リカレントニューラルネットワークを浅層から深層へとトレーニングする。
提案するPAキャッシュの性能を,大規模オンラインビデオオンデマンドサービスプロバイダによる実世界のトレースで広く評価した。
その結果、PA-Cacheは既存の一般的なキャッシュアルゴリズムより優れており、キャッシュパーセンテージが1.0\%のとき、パフォーマンスギャップがわずか3.8\%の最適アルゴリズムを近似していることがわかった。
PAキャッシュは従来のDNNベースのアプローチに比べて計算コストを大幅に削減する。
関連論文リスト
- Efficient Inference of Vision Instruction-Following Models with Elastic Cache [76.44955111634545]
我々は,命令追従型大規模視覚言語モデルの効率的なデプロイのための新しい戦略であるElastic Cacheを紹介する。
本稿では,冗長キャッシュを具現化する重要なキャッシュマージ戦略を提案する。
命令符号化では,キャッシュの重要性を評価するために周波数を利用する。
様々なLVLMの結果は、Elastic Cacheが効率を向上するだけでなく、言語生成における既存のプルーニングメソッドよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-25T15:29:05Z) - A Learning-Based Caching Mechanism for Edge Content Delivery [2.412158290827225]
5GネットワークとIoT(Internet of Things)の台頭により、ネットワークのエッジはますます拡大している。
このシフトは、特に限られたキャッシュストレージとエッジにおける多様な要求パターンのために、ユニークな課題をもたらす。
HR-Cacheは、ハザードレート(HR)順序付けの原則に基づく学習ベースのキャッシュフレームワークである。
論文 参考訳(メタデータ) (2024-02-05T08:06:03Z) - Predictive Edge Caching through Deep Mining of Sequential Patterns in
User Content Retrievals [34.716416311132946]
本稿では,より詳細な学習モデルを用いて,将来的なコンテンツ人気を予測する新しい予測エッジキャッシング(PEC)システムを提案する。
PECは、非常にダイナミックなコンテンツの人気に適応し、キャッシュヒット率を大幅に改善し、ユーザのコンテンツ検索遅延を低減できる。
論文 参考訳(メタデータ) (2022-10-06T03:24:19Z) - Accelerating Deep Learning Classification with Error-controlled
Approximate-key Caching [72.50506500576746]
我々は、近似キーキャッシングと名付けた新しいキャッシングパラダイムを提案する。
近似キャッシュはDL推論の負荷を軽減し、システムのスループットを向上するが、近似誤差を導入する。
我々は古典的なLRUと理想的なキャッシュのキャッシュシステム性能を解析的にモデル化し、期待される性能のトレース駆動評価を行い、提案手法の利点を最先端の類似キャッシュと比較した。
論文 参考訳(メタデータ) (2021-12-13T13:49:11Z) - TEDGE-Caching: Transformer-based Edge Caching Towards 6G Networks [30.160404936777947]
6Gネットワークにおけるモバイルエッジキャッシュ(MEC)は,グローバルなモバイルデータトラフィックの驚くべき成長に対応するための効率的なソリューションとして進化してきた。
近年のディープニューラルネットワーク(DNN)の進歩は、プロアクティブキャッシュ方式におけるコンテンツ人気を予測するために、多くの研究が注目されている。
本稿では,注目に基づく視覚変換(ViT)ニューラルネットワークを組み込んだエッジキャッシュフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T16:38:18Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Learning from Images: Proactive Caching with Parallel Convolutional
Neural Networks [94.85780721466816]
本稿では,プロアクティブキャッシングのための新しいフレームワークを提案する。
モデルベースの最適化とデータ駆動技術を組み合わせて、最適化問題をグレースケールのイメージに変換する。
数値計算の結果,提案手法は71.6%の計算時間を0.8%のコストで削減できることがわかった。
論文 参考訳(メタデータ) (2021-08-15T21:32:47Z) - A Survey of Deep Learning for Data Caching in Edge Network [1.9798034349981157]
本稿では,エッジネットワークにおけるデータキャッシングにおけるディープラーニングの利用について要約する。
まず、コンテンツキャッシングにおける典型的な研究トピックを概説し、ネットワーク階層構造に基づく分類を定式化する。
次に、教師なし学習から教師なし学習、強化学習まで、多くの重要なディープラーニングアルゴリズムが提示される。
論文 参考訳(メタデータ) (2020-08-17T12:02:32Z) - Caching Placement and Resource Allocation for Cache-Enabling UAV NOMA
Networks [87.6031308969681]
本稿では,非直交多重アクセス(NOMA)をサポートした大規模アクセス機能を有する無人航空機(UAV)セルネットワークについて検討する。
コンテンツ配信遅延最小化のための長期キャッシュ配置と資源配分最適化問題をマルコフ決定プロセス(MDP)として定式化する。
そこで我々は,UAVがemphsoft $varepsilon$-greedy戦略を用いて行動の学習と選択を行い,行動と状態の最適な一致を探索する,Qラーニングに基づくキャッシュ配置とリソース割り当てアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-12T08:33:51Z) - Reinforcement Learning for Caching with Space-Time Popularity Dynamics [61.55827760294755]
キャッシングは次世代ネットワークにおいて重要な役割を果たすと想定されている。
コンテンツをインテリジェントにプリフェッチし、保存するためには、キャッシュノードは、何といつキャッシュするかを学ばなければならない。
本章では、近似キャッシングポリシー設計のための多目的強化学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-19T01:23:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。