論文の概要: Cellular traffic offloading via Opportunistic Networking with
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2110.00397v1
- Date: Fri, 1 Oct 2021 13:34:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 14:22:29.592000
- Title: Cellular traffic offloading via Opportunistic Networking with
Reinforcement Learning
- Title(参考訳): 強化学習を用いたオポチュニスティックネットワークによるセルトラフィックオフロード
- Authors: Lorenzo Valerio, Raffaele Bruno, Andrea Passarella
- Abstract要約: 本稿では,Reinforcement Learningフレームワークに基づく適応型オフロードソリューションを提案する。
Actor-Critic と Q-Learning の2つのよく知られた学習アルゴリズムの性能を評価し比較する。
我々のソリューションは、他の最先端のアプローチよりも高いレベルのオフロードを実現する。
- 参考スコア(独自算出の注目度): 0.5758073912084364
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The widespread diffusion of mobile phones is triggering an exponential growth
of mobile data traffic that is likely to cause, in the near future,
considerable traffic overload issues even in last-generation cellular networks.
Offloading part of the traffic to other networks is considered a very promising
approach and, in particular, in this paper, we consider offloading through
opportunistic networks of users' devices. However, the performance of this
solution strongly depends on the pattern of encounters between mobile nodes,
which should therefore be taken into account when designing offloading control
algorithms. In this paper, we propose an adaptive offloading solution based on
the Reinforcement Learning framework and we evaluate and compare the
performance of two well-known learning algorithms: Actor-Critic and Q-Learning.
More precisely, in our solution the controller of the dissemination process,
once trained, is able to select a proper number of content replicas to be
injected into the opportunistic network to guarantee the timely delivery of
contents to all interested users. We show that our system based on
Reinforcement Learning is able to automatically learn a very efficient strategy
to reduce the traffic on the cellular network, without relying on any
additional context information about the opportunistic network. Our solution
achieves a higher level of offloading with respect to other state-of-the-art
approaches, in a range of different mobility settings. Moreover, we show that a
more refined learning solution, based on the Actor-Critic algorithm, is
significantly more efficient than a simpler solution based on Q-learning.
- Abstract(参考訳): 携帯電話の普及によって、モバイルデータトラフィックの指数関数的な増加が引き起こされ、近い将来、次世代の携帯電話ネットワークでもかなりのトラフィック過負荷が発生する可能性がある。
トラフィックの一部を他のネットワークにオフロードすることは、非常に有望なアプローチであると考えられており、特に本稿では、ユーザデバイスの機会的ネットワークを通してのオフロードを検討する。
しかし、このソリューションの性能はモバイルノード間の遭遇パターンに強く依存しており、従ってオフロード制御アルゴリズムを設計する際に考慮すべきである。
本稿では,強化学習フレームワークに基づく適応的オフロードソリューションを提案し,アクタ-クリティックとq-learningの2つのよく知られた学習アルゴリズムの性能を評価し,比較する。
より正確には、我々のソリューションでは、一度訓練された拡散プロセスのコントローラは、日和見ネットワークに注入される適切な数のコンテンツレプリカを選択でき、興味のあるすべてのユーザにタイムリーにコンテンツが配信されることを保証します。
強化学習に基づくシステムでは,機会ネットワークに関する追加のコンテキスト情報に頼ることなく,セルネットワーク上のトラフィックを削減するための非常に効率的な戦略を自動学習できることが示される。
我々のソリューションは、さまざまなモビリティ設定において、他の最先端アプローチよりも高いレベルのオフロードを実現する。
さらに,アクター-クリティックアルゴリズムに基づくより洗練された学習ソリューションは,q-learningに基づく単純なソリューションよりもはるかに効率的であることを示す。
関連論文リスト
- Deep Learning-driven Mobile Traffic Measurement Collection and Analysis [0.43512163406552007]
本稿では,空間的・時間的領域において,深層学習(DL)技術の強力な階層的特徴学習能力を利用する。
そこで我々は,都市規模の交通分析と予測のためのソリューションを開発した。
論文 参考訳(メタデータ) (2024-10-14T06:53:45Z) - DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - Knowledge-Driven Multi-Agent Reinforcement Learning for Computation
Offloading in Cybertwin-Enabled Internet of Vehicles [24.29177900273616]
我々は,サイバトウィン対応IoVにおけるタスクオフロードの遅延を低減するために,知識駆動型マルチエージェント強化学習(KMARL)手法を提案する。
具体的には、検討されたシナリオにおいて、サイバートウィンは、各車両が情報を交換し、仮想空間におけるオフロード決定を行うための通信エージェントとして機能する。
論文 参考訳(メタデータ) (2023-08-04T09:11:37Z) - Multi-agent Reinforcement Learning with Graph Q-Networks for Antenna
Tuning [60.94661435297309]
モバイルネットワークの規模は、手作業による介入や手作業による戦略を使ってアンテナパラメータの最適化を困難にしている。
本研究では,モバイルネットワーク構成をグローバルに最適化するマルチエージェント強化学習アルゴリズムを提案する。
シミュレーション環境におけるアンテナ傾き調整問題とジョイント傾き・電力制御問題に対するアルゴリズムの性能を実証的に示す。
論文 参考訳(メタデータ) (2023-01-20T17:06:34Z) - AI-aided Traffic Control Scheme for M2M Communications in the Internet
of Vehicles [61.21359293642559]
交通のダイナミクスと異なるIoVアプリケーションの異種要求は、既存のほとんどの研究では考慮されていない。
本稿では,ハイブリッド交通制御方式とPPO法を併用して検討する。
論文 参考訳(メタデータ) (2022-03-05T10:54:05Z) - Offline Contextual Bandits for Wireless Network Optimization [107.24086150482843]
本稿では,ユーザ要求の変化に応じて,ネットワーク内の各セルの構成パラメータを自動的に調整するポリシの学習方法について検討する。
私たちのソリューションは、オフライン学習のための既存の方法を組み合わせて、この文脈で生じる重要な課題を克服する原則的な方法でそれらを適応します。
論文 参考訳(メタデータ) (2021-11-11T11:31:20Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - A Survey on Reinforcement Learning-Aided Caching in Mobile Edge Networks [12.470038211838363]
モバイルネットワークは、データ量とユーザ密度が大幅に増加している。
この問題を軽減する効率的な手法は、エッジネットワークノードのキャッシュを利用してデータをユーザに近づけることである。
機械学習とワイヤレスネットワークの融合は、ネットワーク最適化に有効な手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T10:30:56Z) - Toward Multiple Federated Learning Services Resource Sharing in Mobile
Edge Networks [88.15736037284408]
本稿では,マルチアクセスエッジコンピューティングサーバにおいて,複数のフェデレーション付き学習サービスの新たなモデルについて検討する。
共同資源最適化とハイパーラーニング率制御の問題,すなわちMS-FEDLを提案する。
シミュレーションの結果,提案アルゴリズムの収束性能を実証した。
論文 参考訳(メタデータ) (2020-11-25T01:29:41Z) - Computation Offloading in Heterogeneous Vehicular Edge Networks: On-line
and Off-policy Bandit Solutions [30.606518785629046]
高速変動車体環境では、ネットワークの混雑によりオフロードの遅延が発生する。
本稿では,バンディット理論に基づくオンラインアルゴリズムと非政治学習アルゴリズムを提案する。
提案手法は,最も混雑の少ないネットワークを選択することで,ネットワークのトラフィック変化に適応することを示す。
論文 参考訳(メタデータ) (2020-08-14T11:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。