論文の概要: DeePref: Deep Reinforcement Learning For Video Prefetching In Content
Delivery Networks
- arxiv url: http://arxiv.org/abs/2310.07881v1
- Date: Wed, 11 Oct 2023 20:45:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 13:55:03.890022
- Title: DeePref: Deep Reinforcement Learning For Video Prefetching In Content
Delivery Networks
- Title(参考訳): DeePref:コンテンツ配信ネットワークにおけるビデオプレフェッチのための深層強化学習
- Authors: Nawras Alkassab, Chin-Tser Huang, Tania Lorido Botran
- Abstract要約: 本稿では,Deep Reinforcement Learning Agent for online video content prefetching in Content Delivery Networksを提案する。
この結果から,実世界のデータセットを用いたDeePref DRQNは,前処理精度が17%,前処理カバレッジが平均で28%向上することがわかった。
- 参考スコア(独自算出の注目度): 0.06138671548064355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Content Delivery Networks carry the majority of Internet traffic, and the
increasing demand for video content as a major IP traffic across the Internet
highlights the importance of caching and prefetching optimization algorithms.
Prefetching aims to make data available in the cache before the requester
places its request to reduce access time and improve the Quality of Experience
on the user side. Prefetching is well investigated in operating systems,
compiler instructions, in-memory cache, local storage systems, high-speed
networks, and cloud systems. Traditional prefetching techniques are well
adapted to a particular access pattern, but fail to adapt to sudden variations
or randomization in workloads. This paper explores the use of reinforcement
learning to tackle the changes in user access patterns and automatically adapt
over time. To this end, we propose, DeePref, a Deep Reinforcement Learning
agent for online video content prefetching in Content Delivery Networks.
DeePref is a prefetcher implemented on edge networks and is agnostic to
hardware design, operating systems, and applications. Our results show that
DeePref DRQN, using a real-world dataset, achieves a 17% increase in
prefetching accuracy and a 28% increase in prefetching coverage on average
compared to baseline approaches that use video content popularity as a building
block to statically or dynamically make prefetching decisions. We also study
the possibility of transfer learning of statistical models from one edge
network into another, where unseen user requests from unknown distribution are
observed. In terms of transfer learning, the increase in prefetching accuracy
and prefetching coverage are [$30%$, $10%$], respectively. Our source code will
be available on Github.
- Abstract(参考訳): コンテンツ配信ネットワークは、インターネットトラフィックの大部分を担い、インターネット上の主要なIPトラフィックとしてのビデオコンテンツの需要の増加は、キャッシュとプリフェッチ最適化アルゴリズムの重要性を強調している。
Prefetchingは、要求者がアクセス時間を短縮し、ユーザ側のQuality of Experienceを改善するために要求する前に、キャッシュでデータを利用できるようにすることを目的としている。
プリフェッチはオペレーティングシステム、コンパイラ命令、インメモリキャッシュ、ローカルストレージシステム、高速ネットワーク、クラウドシステムでよく研究されている。
従来のプリフェッチテクニックは特定のアクセスパターンにうまく適応しているが、突然の変動やワークロードのランダム化に適応できない。
本稿では,ユーザアクセスパターンの変化に対処し,時間とともに自動的に適応する強化学習について検討する。
そこで本研究では,コンテンツ配信ネットワークにおけるオンラインビデオコンテンツプリフェッチのための深層強化学習エージェントdeeprefを提案する。
DeePrefはエッジネットワーク上に実装されたプレファーであり、ハードウェア設計、オペレーティングシステム、アプリケーションには依存しない。
実世界のデータセットを用いたDeePref DRQNは,映像コンテンツの人気をビルディングブロックとして利用し,静的あるいは動的にプリフェッチ決定を行うベースラインアプローチと比較して,前処理精度が17%向上し,前処理カバレッジが平均で28%増加した。
また,あるエッジネットワークから別のエッジネットワークへ,未知の分布からの未確認ユーザ要求が観測される統計モデルの移行学習の可能性についても検討した。
転校学習の観点では,プリフェッチ精度の向上とプリフェッチカバレッジの増加は,それぞれ[30%$,10%$]である。
ソースコードはGithubで公開されます。
関連論文リスト
- Resource-Aware Hierarchical Federated Learning in Wireless Video Caching Networks [24.664469755746463]
いくつかの人気ファイルの動画トラフィックによるバックホールトラフィックの混雑は、要求されるコンテンツを保存することで軽減できる。
本稿では,ユーザの今後のコンテンツ要求を予測するためのリソース対応階層型学習(RawHFL)ソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-06T18:17:02Z) - Resource-Aware Hierarchical Federated Learning for Video Caching in
Wireless Networks [29.137803674759848]
ユーザの要求が時間とともにどのように変化するかを学ぶためには,プライバシ保護手法が望ましい。
本稿では,ユーザの今後のコンテンツ要求を予測するために,リソースを意識した階層型学習(RawHFL)ソリューションを提案する。
シミュレーションの結果,提案手法は予測精度と総エネルギー消費率において,検討されたベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-11-12T18:23:17Z) - Reinforcement Learning -based Adaptation and Scheduling Methods for
Multi-source DASH [1.1971219484941955]
HTTP(DASH)上の動的適応ストリーミングは、最近ビデオストリーミングで広く使われている。
マルチソースストリーミングでは、ネットワークパスの異なる条件のために、ビデオチャンクが順番に到着する可能性がある。
本稿では,複数のソースからストリーミングする2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-25T06:47:12Z) - SpawnNet: Learning Generalizable Visuomotor Skills from Pre-trained
Networks [52.766795949716986]
本稿では,事前学習した視覚表現のカテゴリレベルでの一般化能力について検討する。
本研究では,事前学習した多層表現を独立したネットワークに融合させて,ロバストなポリシーを学習する,新しい2ストリームアーキテクチャSpawnNetを提案する。
論文 参考訳(メタデータ) (2023-07-07T13:01:29Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z) - Semi-supervised Network Embedding with Differentiable Deep Quantisation [81.49184987430333]
我々はネットワーク埋め込みのための微分可能な量子化法であるd-SNEQを開発した。
d-SNEQは、学習された量子化符号にリッチな高次情報を与えるためにランク損失を組み込む。
トレーニング済みの埋め込みのサイズを大幅に圧縮できるため、ストレージのフットプリントが減少し、検索速度が向上する。
論文 参考訳(メタデータ) (2021-08-20T11:53:05Z) - A Survey of Deep Learning for Data Caching in Edge Network [1.9798034349981157]
本稿では,エッジネットワークにおけるデータキャッシングにおけるディープラーニングの利用について要約する。
まず、コンテンツキャッシングにおける典型的な研究トピックを概説し、ネットワーク階層構造に基づく分類を定式化する。
次に、教師なし学習から教師なし学習、強化学習まで、多くの重要なディープラーニングアルゴリズムが提示される。
論文 参考訳(メタデータ) (2020-08-17T12:02:32Z) - Caching Placement and Resource Allocation for Cache-Enabling UAV NOMA
Networks [87.6031308969681]
本稿では,非直交多重アクセス(NOMA)をサポートした大規模アクセス機能を有する無人航空機(UAV)セルネットワークについて検討する。
コンテンツ配信遅延最小化のための長期キャッシュ配置と資源配分最適化問題をマルコフ決定プロセス(MDP)として定式化する。
そこで我々は,UAVがemphsoft $varepsilon$-greedy戦略を用いて行動の学習と選択を行い,行動と状態の最適な一致を探索する,Qラーニングに基づくキャッシュ配置とリソース割り当てアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-12T08:33:51Z) - Reinforcement Learning for Caching with Space-Time Popularity Dynamics [61.55827760294755]
キャッシングは次世代ネットワークにおいて重要な役割を果たすと想定されている。
コンテンツをインテリジェントにプリフェッチし、保存するためには、キャッシュノードは、何といつキャッシュするかを学ばなければならない。
本章では、近似キャッシングポリシー設計のための多目的強化学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-19T01:23:51Z) - Accelerating Deep Reinforcement Learning With the Aid of Partial Model:
Energy-Efficient Predictive Video Streaming [97.75330397207742]
深層強化学習を用いて,モバイルネットワーク上でのエネルギー効率の高いビデオストリーミングのための予測電力割り当てを考案した。
連続状態と行動空間を扱うために、我々はDeep Deterministic Policy gradient (DDPG)アルゴリズムを利用する。
シミュレーションの結果,提案手法は完全大規模チャネル予測に基づいて導出される最適方針に収束することが示された。
論文 参考訳(メタデータ) (2020-03-21T17:36:53Z) - PA-Cache: Evolving Learning-Based Popularity-Aware Content Caching in
Edge Networks [14.939950326112045]
本稿では,エッジネットワークにおけるPAキャッシュという,学習ベースのコンテンツキャッシュポリシを提案する。
時間変化のあるコンテンツの人気を適応的に学習し、キャッシュが満杯になったときにどのコンテンツを置き換えるべきかを決定する。
提案するPAキャッシュの性能を,大規模オンラインビデオオンデマンドサービスプロバイダによる実世界のトレースで広範囲に評価した。
論文 参考訳(メタデータ) (2020-02-20T15:38:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。