論文の概要: TEDGE-Caching: Transformer-based Edge Caching Towards 6G Networks
- arxiv url: http://arxiv.org/abs/2112.00633v1
- Date: Wed, 1 Dec 2021 16:38:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 16:34:38.247409
- Title: TEDGE-Caching: Transformer-based Edge Caching Towards 6G Networks
- Title(参考訳): TEDGE-Caching:6Gネットワークに向けたトランスフォーマーベースのエッジキャッシュ
- Authors: Zohreh Hajiakhondi Meybodi, Arash Mohammadi, Elahe Rahimian, Shahin
Heidarian, Jamshid Abouei, Konstantinos N. Plataniotis
- Abstract要約: 6Gネットワークにおけるモバイルエッジキャッシュ(MEC)は,グローバルなモバイルデータトラフィックの驚くべき成長に対応するための効率的なソリューションとして進化してきた。
近年のディープニューラルネットワーク(DNN)の進歩は、プロアクティブキャッシュ方式におけるコンテンツ人気を予測するために、多くの研究が注目されている。
本稿では,注目に基づく視覚変換(ViT)ニューラルネットワークを組み込んだエッジキャッシュフレームワークを提案する。
- 参考スコア(独自算出の注目度): 30.160404936777947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a consequence of the COVID-19 pandemic, the demand for telecommunication
for remote learning/working and telemedicine has significantly increased.
Mobile Edge Caching (MEC) in the 6G networks has been evolved as an efficient
solution to meet the phenomenal growth of the global mobile data traffic by
bringing multimedia content closer to the users. Although massive connectivity
enabled by MEC networks will significantly increase the quality of
communications, there are several key challenges ahead. The limited storage of
edge nodes, the large size of multimedia content, and the time-variant users'
preferences make it critical to efficiently and dynamically predict the
popularity of content to store the most upcoming requested ones before being
requested. Recent advancements in Deep Neural Networks (DNNs) have drawn much
research attention to predict the content popularity in proactive caching
schemes. Existing DNN models in this context, however, suffer from longterm
dependencies, computational complexity, and unsuitability for parallel
computing. To tackle these challenges, we propose an edge caching framework
incorporated with the attention-based Vision Transformer (ViT) neural network,
referred to as the Transformer-based Edge (TEDGE) caching, which to the best of
our knowledge, is being studied for the first time. Moreover, the TEDGE caching
framework requires no data pre-processing and additional contextual
information. Simulation results corroborate the effectiveness of the proposed
TEDGE caching framework in comparison to its counterparts.
- Abstract(参考訳): 新型コロナウイルス(covid-19)のパンデミックにより、遠隔学習や遠隔医療へのテレコミュニケーションの需要が大幅に増加した。
6Gネットワークにおけるモバイルエッジキャッシング(MEC)は、マルチメディアコンテンツをユーザに近づけることで、グローバルなモバイルデータトラフィックの驚くべき成長に対応するための効率的なソリューションとして進化してきた。
mecネットワークによる大規模接続により通信品質が大幅に向上するが,今後の課題はいくつかある。
エッジノードのストレージの制限、マルチメディアコンテンツの大規模化、ユーザの嗜好の変化により、要求される前に最も要求されるコンテンツを保存するために、コンテンツの人気を効率的かつ動的に予測することが重要となる。
近年のディープニューラルネットワーク(DNN)の進歩は、プロアクティブキャッシュ方式におけるコンテンツ人気を予測するために、多くの研究が注目されている。
しかし、この文脈における既存のDNNモデルは、長期の依存関係、計算複雑性、並列コンピューティングには不適当である。
これらの課題に対処するために,Transformer-based Edge (TEDGE) と呼ばれる注目に基づく視覚変換(ViT)ニューラルネットワークを組み込んだエッジキャッシュフレームワークを提案する。
さらに、TEDGEキャッシュフレームワークは、データ前処理や追加のコンテキスト情報を必要としない。
シミュレーションの結果は,提案したTEDGEキャッシュフレームワークの有効性を,それと比較した。
関連論文リスト
- CLSA: Contrastive Learning-based Survival Analysis for Popularity
Prediction in MEC Networks [36.01752474571776]
ディープニューラルネットワーク(DNN)と統合されたモバイルエッジキャッシング(MEC)は、将来の次世代無線ネットワークにとって大きな可能性を秘めている革新的な技術である。
MECネットワークの有効性は、最も人気のあるコンテンツでキャッシュノードのストレージを予測し、動的に更新する能力に大きく依存している。
有効にするためには、DNNベースの人気予測モデルには、コンテンツの歴史的要求パターンを理解する能力が必要である。
論文 参考訳(メタデータ) (2023-03-21T15:57:46Z) - Semantics-enhanced Temporal Graph Networks for Content Caching and
Energy Saving [21.693946854653785]
本稿では,DGNNモデルの時間的・構造的学習を強化するために,追加のセマンティックメッセージを利用する,STGNという時間的グラフネットワークを提案する。
また,ユーザ固有のアテンション機構を提案し,様々なセマンティクスをきめ細やかに集約する。
論文 参考訳(メタデータ) (2023-01-29T04:17:32Z) - ViT-CAT: Parallel Vision Transformers with Cross Attention Fusion for
Popularity Prediction in MEC Networks [36.764013561811225]
本稿では,アテンション機構に基づく新しいハイブリッドキャッシングフレームワークを提案する。
提案アーキテクチャは2つの並列ViTネットワークで構成され,その1つは時間的相関を収集し,もう1つは異なるコンテンツ間の依存関係をキャプチャする。
シミュレーション結果に基づいて,提案したViT-CATアーキテクチャは,分類精度,複雑性,キャッシュヒット比において,その性能に優れる。
論文 参考訳(メタデータ) (2022-10-27T02:17:47Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z) - Semi-supervised Network Embedding with Differentiable Deep Quantisation [81.49184987430333]
我々はネットワーク埋め込みのための微分可能な量子化法であるd-SNEQを開発した。
d-SNEQは、学習された量子化符号にリッチな高次情報を与えるためにランク損失を組み込む。
トレーニング済みの埋め込みのサイズを大幅に圧縮できるため、ストレージのフットプリントが減少し、検索速度が向上する。
論文 参考訳(メタデータ) (2021-08-20T11:53:05Z) - Learning from Images: Proactive Caching with Parallel Convolutional
Neural Networks [94.85780721466816]
本稿では,プロアクティブキャッシングのための新しいフレームワークを提案する。
モデルベースの最適化とデータ駆動技術を組み合わせて、最適化問題をグレースケールのイメージに変換する。
数値計算の結果,提案手法は71.6%の計算時間を0.8%のコストで削減できることがわかった。
論文 参考訳(メタデータ) (2021-08-15T21:32:47Z) - A Survey on Reinforcement Learning-Aided Caching in Mobile Edge Networks [12.470038211838363]
モバイルネットワークは、データ量とユーザ密度が大幅に増加している。
この問題を軽減する効率的な手法は、エッジネットワークノードのキャッシュを利用してデータをユーザに近づけることである。
機械学習とワイヤレスネットワークの融合は、ネットワーク最適化に有効な手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T10:30:56Z) - A Joint Energy and Latency Framework for Transfer Learning over 5G
Industrial Edge Networks [53.26338041079138]
5G産業エッジネットワークのための転送学習対応エッジCNNフレームワークを提案する。
特に、エッジサーバは、既存の画像データセットを使用してcnnを事前トレーニングすることができる。
TLの助けを借りて、トレーニングに参加していないデバイスは、訓練されたエッジCNNモデルをスクラッチからトレーニングせずに微調整するだけです。
論文 参考訳(メタデータ) (2021-04-19T15:13:16Z) - Caching Placement and Resource Allocation for Cache-Enabling UAV NOMA
Networks [87.6031308969681]
本稿では,非直交多重アクセス(NOMA)をサポートした大規模アクセス機能を有する無人航空機(UAV)セルネットワークについて検討する。
コンテンツ配信遅延最小化のための長期キャッシュ配置と資源配分最適化問題をマルコフ決定プロセス(MDP)として定式化する。
そこで我々は,UAVがemphsoft $varepsilon$-greedy戦略を用いて行動の学習と選択を行い,行動と状態の最適な一致を探索する,Qラーニングに基づくキャッシュ配置とリソース割り当てアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-12T08:33:51Z) - Reinforcement Learning for Caching with Space-Time Popularity Dynamics [61.55827760294755]
キャッシングは次世代ネットワークにおいて重要な役割を果たすと想定されている。
コンテンツをインテリジェントにプリフェッチし、保存するためには、キャッシュノードは、何といつキャッシュするかを学ばなければならない。
本章では、近似キャッシングポリシー設計のための多目的強化学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-19T01:23:51Z) - PA-Cache: Evolving Learning-Based Popularity-Aware Content Caching in
Edge Networks [14.939950326112045]
本稿では,エッジネットワークにおけるPAキャッシュという,学習ベースのコンテンツキャッシュポリシを提案する。
時間変化のあるコンテンツの人気を適応的に学習し、キャッシュが満杯になったときにどのコンテンツを置き換えるべきかを決定する。
提案するPAキャッシュの性能を,大規模オンラインビデオオンデマンドサービスプロバイダによる実世界のトレースで広範囲に評価した。
論文 参考訳(メタデータ) (2020-02-20T15:38:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。