論文の概要: Smart Scheduling based on Deep Reinforcement Learning for Cellular
Networks
- arxiv url: http://arxiv.org/abs/2103.11542v1
- Date: Mon, 22 Mar 2021 02:09:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:49:00.698623
- Title: Smart Scheduling based on Deep Reinforcement Learning for Cellular
Networks
- Title(参考訳): セルラーネットワークのための深層強化学習に基づくスマートスケジューリング
- Authors: Jian Wang and Chen Xu and Rong Li and Yiqun Ge and Jun Wang
- Abstract要約: 深部強化学習(DRL)に基づくスマートスケジューリング手法を提案する。
実装フレンドリーな設計、すなわちエージェントのためのスケーラブルなニューラルネットワーク設計と仮想環境トレーニングフレームワークを提供する。
本研究では, DRLベースのスマートスケジューリングが従来のスケジューリング方式を上回り, 実用システムにも適用できることを示した。
- 参考スコア(独自算出の注目度): 18.04856086228028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To improve the system performance towards the Shannon limit, advanced radio
resource management mechanisms play a fundamental role. In particular,
scheduling should receive much attention, because it allocates radio resources
among different users in terms of their channel conditions and QoS
requirements. The difficulties of scheduling algorithms are the tradeoffs need
to be made among multiple objectives, such as throughput, fairness and packet
drop rate. We propose a smart scheduling scheme based on deep reinforcement
learning (DRL). We not only verify the performance gain achieved, but also
provide implementation-friend designs, i.e., a scalable neural network design
for the agent and a virtual environment training framework. With the scalable
neural network design, the DRL agent can easily handle the cases when the
number of active users is time-varying without the need to redesign and retrain
the DRL agent. Training the DRL agent in a virtual environment offline first
and using it as the initial version in the practical usage helps to prevent the
system from suffering from performance and robustness degradation due to the
time-consuming training. Through both simulations and field tests, we show that
the DRL-based smart scheduling outperforms the conventional scheduling method
and can be adopted in practical systems.
- Abstract(参考訳): シャノン限界に対するシステム性能を改善するため、高度無線リソース管理機構が基本的役割を果たす。
特に、チャネル条件やQoS要件の観点から、異なるユーザ間で無線リソースを割り当てているため、スケジューリングには多くの注意が必要である。
スケジューリングアルゴリズムの難しさは、スループット、公平性、パケット損失率といった複数の目的の間でトレードオフを行う必要があることである。
本稿では,深層強化学習(DRL)に基づくスマートスケジューリング手法を提案する。
パフォーマンス向上の確認だけでなく,エージェントのためのスケーラブルなニューラルネットワーク設計や,仮想環境トレーニングフレームワークなど,実装フレンドリーな設計も提供しています。
スケーラブルなニューラルネットワーク設計により、DRLエージェントは、DRLエージェントの再設計と再トレーニングを必要とせずに、アクティブユーザ数が時間変化している場合に容易に対応できる。
仮想環境においてDRLエージェントをオフラインでトレーニングし、実際に使用する初期バージョンとして使用すると、時間を要するトレーニングによるシステムの性能と堅牢性低下が防止される。
シミュレーションとフィールドテストの両方を通して、DRLベースのスマートスケジューリングが従来のスケジューリング方法より優れており、実用的なシステムで適用可能であることを示す。
関連論文リスト
- Intent-Aware DRL-Based Uplink Dynamic Scheduler for 5G-NR [30.146175299047325]
産業用インターネット・オブ・モノのユーザ機器(IIoT UE)を意図的(QoS要求品質)とランダムなトラフィック到着で支援する問題について検討する。
利用可能な通信資源のスケジューリング方法を学ぶために,DRLに基づく時間周波数リソースの集中型動的スケジューラを提案する。
論文 参考訳(メタデータ) (2024-03-27T08:57:15Z) - Dynamic Scheduling for Federated Edge Learning with Streaming Data [56.91063444859008]
我々は,長期的エネルギー制約のある分散エッジデバイスにおいて,トレーニングデータを時間とともにランダムに生成するフェデレーションエッジ学習(FEEL)システムを検討する。
限られた通信リソースとレイテンシ要件のため、各イテレーションでローカルトレーニングプロセスに参加するのはデバイスのサブセットのみである。
論文 参考訳(メタデータ) (2023-05-02T07:41:16Z) - HARL: Hierarchical Adaptive Reinforcement Learning Based Auto Scheduler
for Neural Networks [51.71682428015139]
効率的なテンソルプログラム探索のための強化学習に基づく自動スケジューリングシステムであるHARLを提案する。
HarLは、最先端のオートスケジューラと比較して、テンソル演算子の性能を22%改善し、探索速度を4.3倍改善する。
また、エンドツーエンドのニューラルネットワークでは、推論性能と探索速度も大幅に向上する。
論文 参考訳(メタデータ) (2022-11-21T04:15:27Z) - FIRE: A Failure-Adaptive Reinforcement Learning Framework for Edge Computing Migrations [52.85536740465277]
FIREは、エッジコンピューティングのディジタルツイン環境でRLポリシーをトレーニングすることで、まれなイベントに適応するフレームワークである。
ImREは重要なサンプリングに基づくQ-ラーニングアルゴリズムであり、希少事象をその値関数への影響に比例してサンプリングする。
FIREは故障時にバニラRLやグリーディベースラインと比較してコストを削減できることを示す。
論文 参考訳(メタデータ) (2022-09-28T19:49:39Z) - DL-DRL: A double-level deep reinforcement learning approach for
large-scale task scheduling of multi-UAV [65.07776277630228]
分割・征服フレームワーク(DCF)に基づく二重レベル深層強化学習(DL-DRL)手法を提案する。
特に,上層部DRLモデルにおけるエンコーダ・デコーダ構成ポリシネットワークを設計し,タスクを異なるUAVに割り当てる。
また、低レベルDRLモデルにおける別の注意に基づくポリシーネットワークを利用して、各UAVの経路を構築し、実行されたタスク数を最大化する。
論文 参考訳(メタデータ) (2022-08-04T04:35:53Z) - Single-Shot Pruning for Offline Reinforcement Learning [47.886329599997474]
深層強化学習(Deep Reinforcement Learning, RL)は、複雑な現実世界の問題を解決するための強力なフレームワークである。
この問題に対処するひとつの方法は、必要なパラメータだけを残したニューラルネットワークをプルークすることです。
我々は,RLと単発プルーニングのギャップを埋め,オフラインRLに対する一般的なプルーニング手法を提案する。
論文 参考訳(メタデータ) (2021-12-31T18:10:02Z) - MCDS: AI Augmented Workflow Scheduling in Mobile Edge Cloud Computing
Systems [12.215537834860699]
近年,エッジコンピューティングプラットフォームの低応答時間を利用してアプリケーション品質・オブ・サービス(QoS)を最適化するスケジューリング手法が提案されている。
本稿では,Deep Surrogate Models を用いたモンテカルロ学習を用いて,モバイルエッジクラウドコンピューティングシステムにおけるワークフローアプリケーションを効率的にスケジューリングする手法を提案する。
論文 参考訳(メタデータ) (2021-12-14T10:00:01Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Deep-Reinforcement-Learning-Based Scheduling with Contiguous Resource
Allocation for Next-Generation Cellular Systems [4.227387975627387]
深部強化学習(DRL)に基づく連続周波数領域リソース割り当て(FDRA)を用いた新しいスケジューリングアルゴリズムを提案する。
DRLに基づくスケジューリングアルゴリズムは、オンライン計算の複雑さを低くしながら、他の代表的ベースライン方式よりも優れている。
論文 参考訳(メタデータ) (2020-10-11T05:41:40Z) - Knowledge-Assisted Deep Reinforcement Learning in 5G Scheduler Design:
From Theoretical Framework to Implementation [34.5517138843888]
5Gネットワークにおけるスケジューラ設計のための知識支援深層強化学習アルゴリズムを開発した。
DDPGの簡単な実装は、徐々に収束し、QoS性能が悪く、現実世界の5Gシステムでは実装できないことを示す。
論文 参考訳(メタデータ) (2020-09-17T14:52:12Z) - Stacked Auto Encoder Based Deep Reinforcement Learning for Online
Resource Scheduling in Large-Scale MEC Networks [44.40722828581203]
オンラインリソーススケジューリングフレームワークは、IoT(Internet of Things)の全ユーザに対して、重み付けされたタスクレイテンシの総和を最小化するために提案されている。
以下を含む深層強化学習(DRL)に基づく解法を提案する。
DRLがポリシーネットワークをトレーニングし、最適なオフロードポリシーを見つけるのを支援するために、保存および優先されたエクスペリエンスリプレイ(2p-ER)を導入する。
論文 参考訳(メタデータ) (2020-01-24T23:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。