論文の概要: Predictive Edge Caching through Deep Mining of Sequential Patterns in
User Content Retrievals
- arxiv url: http://arxiv.org/abs/2210.02657v1
- Date: Thu, 6 Oct 2022 03:24:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 17:47:31.603582
- Title: Predictive Edge Caching through Deep Mining of Sequential Patterns in
User Content Retrievals
- Title(参考訳): ユーザコンテンツ検索におけるシーケンスパターンの深いマイニングによる予測エッジキャッシング
- Authors: Chen Li, Xiaoyu Wang, Tongyu Zong, Houwei Cao, Yong Liu
- Abstract要約: 本稿では,より詳細な学習モデルを用いて,将来的なコンテンツ人気を予測する新しい予測エッジキャッシング(PEC)システムを提案する。
PECは、非常にダイナミックなコンテンツの人気に適応し、キャッシュヒット率を大幅に改善し、ユーザのコンテンツ検索遅延を低減できる。
- 参考スコア(独自算出の注目度): 34.716416311132946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Edge caching plays an increasingly important role in boosting user content
retrieval performance while reducing redundant network traffic. The
effectiveness of caching ultimately hinges on the accuracy of predicting
content popularity in the near future. However, at the network edge, content
popularity can be extremely dynamic due to diverse user content retrieval
behaviors and the low-degree of user multiplexing. It's challenging for the
traditional reactive caching systems to keep up with the dynamic content
popularity patterns. In this paper, we propose a novel Predictive Edge Caching
(PEC) system that predicts the future content popularity using fine-grained
learning models that mine sequential patterns in user content retrieval
behaviors, and opportunistically prefetches contents predicted to be popular in
the near future using idle network bandwidth. Through extensive experiments
driven by real content retrieval traces, we demonstrate that PEC can adapt to
highly dynamic content popularity, and significantly improve cache hit ratio
and reduce user content retrieval latency over the state-of-art caching
policies. More broadly, our study demonstrates that edge caching performance
can be boosted by deep mining of user content retrieval behaviors.
- Abstract(参考訳): エッジキャッシュは、冗長なネットワークトラフィックを削減しつつ、ユーザのコンテンツ検索パフォーマンスを高める上で、ますます重要な役割を果たす。
キャッシングの有効性は、近い将来にコンテンツの人気を予測する精度にかかっている。
しかし、ネットワークエッジでは、多様なユーザコンテンツ検索行動や低度のユーザ多重化のため、コンテンツの人気は極めてダイナミックである。
従来のリアクティブキャッシングシステムでは、動的コンテンツの人気パターンに追随するのは難しいのです。
本稿では,ユーザコンテンツ検索行動における逐次パターンをマイニングする細粒度学習モデルを用いて,将来的なコンテンツ人気を予測する新しい予測エッジキャッシング(pec)システムを提案する。
実際のコンテンツ検索トレースによる広範囲な実験を通じて,pecが高度にダイナミックなコンテンツ人気に適応できることを実証し,キャッシュヒット率を大幅に改善し,最先端キャッシュポリシーよりもユーザコンテンツ検索遅延を低減できることを示した。
さらに,本研究では,ユーザのコンテンツ検索行動の深いマイニングにより,エッジキャッシング性能が向上することを示す。
関連論文リスト
- Efficient Inference of Vision Instruction-Following Models with Elastic Cache [76.44955111634545]
我々は,命令追従型大規模視覚言語モデルの効率的なデプロイのための新しい戦略であるElastic Cacheを紹介する。
本稿では,冗長キャッシュを具現化する重要なキャッシュマージ戦略を提案する。
命令符号化では,キャッシュの重要性を評価するために周波数を利用する。
様々なLVLMの結果は、Elastic Cacheが効率を向上するだけでなく、言語生成における既存のプルーニングメソッドよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-25T15:29:05Z) - Semantics-enhanced Temporal Graph Networks for Content Caching and
Energy Saving [21.693946854653785]
本稿では,DGNNモデルの時間的・構造的学習を強化するために,追加のセマンティックメッセージを利用する,STGNという時間的グラフネットワークを提案する。
また,ユーザ固有のアテンション機構を提案し,様々なセマンティクスをきめ細やかに集約する。
論文 参考訳(メタデータ) (2023-01-29T04:17:32Z) - Multi-Content Time-Series Popularity Prediction with Multiple-Model
Transformers in MEC Networks [34.44384973176474]
モバイルエッジキャッシング(MEC)におけるコーディング/アンコードされたコンテンツ配置は、グローバルなモバイルデータトラフィックの大幅な増加に対応するために進化してきた。
既存のデータ駆動の人気予測モデルは、コード化/アンコードされたコンテンツ配置フレームワークには適していない。
一般化能力の高いマルチモデル(ハイブリッド)トランスフォーマーベースエッジキャッシング(MTEC)フレームワークを開発した。
論文 参考訳(メタデータ) (2022-10-12T02:24:49Z) - Content Popularity Prediction in Fog-RANs: A Clustered Federated
Learning Based Approach [66.31587753595291]
本稿では,ローカルユーザとモバイルユーザの両面からコンテンツの人気度を統合した,モビリティに配慮した新しい人気予測ポリシーを提案する。
ローカルユーザにとって、コンテンツの人気は、ローカルユーザやコンテンツの隠された表現を学習することによって予測される。
モバイルユーザーにとって、コンテンツの人気はユーザー好みの学習によって予測される。
論文 参考訳(メタデータ) (2022-06-13T03:34:00Z) - Dynamic Memory based Attention Network for Sequential Recommendation [79.5901228623551]
DMAN(Dynamic Memory-based Attention Network)と呼ばれる新しい連続的推薦モデルを提案する。
長い動作シーケンス全体を一連のサブシーケンスに分割し、モデルをトレーニングし、ユーザの長期的な利益を維持するためにメモリブロックのセットを維持する。
動的メモリに基づいて、ユーザの短期的および長期的関心を明示的に抽出し、組み合わせて効率的な共同推薦を行うことができる。
論文 参考訳(メタデータ) (2021-02-18T11:08:54Z) - A Survey of Deep Learning for Data Caching in Edge Network [1.9798034349981157]
本稿では,エッジネットワークにおけるデータキャッシングにおけるディープラーニングの利用について要約する。
まず、コンテンツキャッシングにおける典型的な研究トピックを概説し、ネットワーク階層構造に基づく分類を定式化する。
次に、教師なし学習から教師なし学習、強化学習まで、多くの重要なディープラーニングアルゴリズムが提示される。
論文 参考訳(メタデータ) (2020-08-17T12:02:32Z) - Caching Placement and Resource Allocation for Cache-Enabling UAV NOMA
Networks [87.6031308969681]
本稿では,非直交多重アクセス(NOMA)をサポートした大規模アクセス機能を有する無人航空機(UAV)セルネットワークについて検討する。
コンテンツ配信遅延最小化のための長期キャッシュ配置と資源配分最適化問題をマルコフ決定プロセス(MDP)として定式化する。
そこで我々は,UAVがemphsoft $varepsilon$-greedy戦略を用いて行動の学習と選択を行い,行動と状態の最適な一致を探索する,Qラーニングに基づくキャッシュ配置とリソース割り当てアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-12T08:33:51Z) - Reinforcement Learning for Caching with Space-Time Popularity Dynamics [61.55827760294755]
キャッシングは次世代ネットワークにおいて重要な役割を果たすと想定されている。
コンテンツをインテリジェントにプリフェッチし、保存するためには、キャッシュノードは、何といつキャッシュするかを学ばなければならない。
本章では、近似キャッシングポリシー設計のための多目的強化学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-19T01:23:51Z) - PA-Cache: Evolving Learning-Based Popularity-Aware Content Caching in
Edge Networks [14.939950326112045]
本稿では,エッジネットワークにおけるPAキャッシュという,学習ベースのコンテンツキャッシュポリシを提案する。
時間変化のあるコンテンツの人気を適応的に学習し、キャッシュが満杯になったときにどのコンテンツを置き換えるべきかを決定する。
提案するPAキャッシュの性能を,大規模オンラインビデオオンデマンドサービスプロバイダによる実世界のトレースで広範囲に評価した。
論文 参考訳(メタデータ) (2020-02-20T15:38:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。