論文の概要: Deep-Reinforcement-Learning-Based Scheduling with Contiguous Resource
Allocation for Next-Generation Cellular Systems
- arxiv url: http://arxiv.org/abs/2010.11269v2
- Date: Thu, 26 Nov 2020 23:23:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 14:06:41.720170
- Title: Deep-Reinforcement-Learning-Based Scheduling with Contiguous Resource
Allocation for Next-Generation Cellular Systems
- Title(参考訳): 次世代セルラーシステムのための連続リソース割り当てを用いた深部強化学習型スケジューリング
- Authors: Shu Sun, Xiaofeng Li
- Abstract要約: 深部強化学習(DRL)に基づく連続周波数領域リソース割り当て(FDRA)を用いた新しいスケジューリングアルゴリズムを提案する。
DRLに基づくスケジューリングアルゴリズムは、オンライン計算の複雑さを低くしながら、他の代表的ベースライン方式よりも優れている。
- 参考スコア(独自算出の注目度): 4.227387975627387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scheduling plays a pivotal role in multi-user wireless communications, since
the quality of service of various users largely depends upon the allocated
radio resources. In this paper, we propose a novel scheduling algorithm with
contiguous frequency-domain resource allocation (FDRA) based on deep
reinforcement learning (DRL) that jointly selects users and allocates resource
blocks (RBs). The scheduling problem is modeled as a Markov decision process,
and a DRL agent determines which user and how many consecutive RBs for that
user should be scheduled at each RB allocation step. The state space, action
space, and reward function are delicately designed to train the DRL network.
More specifically, the originally quasi-continuous action space, which is
inherent to contiguous FDRA, is refined into a finite and discrete action space
to obtain a trade-off between the inference latency and system performance.
Simulation results show that the proposed DRL-based scheduling algorithm
outperforms other representative baseline schemes while having lower online
computational complexity.
- Abstract(参考訳): スケジューリングは、様々なユーザのサービス品質が割り当てられた無線リソースに大きく依存するため、マルチユーザ無線通信において重要な役割を果たす。
本稿では、ユーザを協調的に選択し、リソースブロック(RB)を割り当てる深層強化学習(DRL)に基づく、連続周波数領域リソース割り当て(FDRA)を用いた新しいスケジューリングアルゴリズムを提案する。
スケジューリング問題はマルコフ決定プロセスとしてモデル化され、DRLエージェントは、各RB割り当てステップで、どのユーザと、そのユーザの連続したRB数をスケジュールするかを決定する。
状態空間、行動空間、報酬関数はDRLネットワークを訓練するために微妙に設計されている。
より具体的には、連続FDRAに固有の元々の準連続的な作用空間を有限かつ離散的な作用空間に洗練し、推論レイテンシとシステム性能のトレードオフを得る。
シミュレーションの結果,提案手法はオンライン計算の複雑さを低減しつつ,他の代表的なベースラインスキームよりも優れていることがわかった。
関連論文リスト
- Intelligent Hybrid Resource Allocation in MEC-assisted RAN Slicing Network [72.2456220035229]
我々は,協調型MEC支援RANスライシングシステムにおける異種サービス要求に対するSSRの最大化を目指す。
最適ハイブリッドRAポリシーをインテリジェントに学習するためのRGRLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-02T01:36:13Z) - Optimization of Image Transmission in a Cooperative Semantic
Communication Networks [68.2233384648671]
画像伝送のためのセマンティック通信フレームワークを開発した。
サーバは、セマンティックコミュニケーション技術を用いて、画像の集合を協調的にユーザへ送信する。
抽出した意味情報と原画像との相関関係を測定するために,マルチモーダル・メトリックを提案する。
論文 参考訳(メタデータ) (2023-01-01T15:59:13Z) - Decentralized Federated Reinforcement Learning for User-Centric Dynamic
TFDD Control [37.54493447920386]
非対称かつ不均一なトラフィック要求を満たすための学習に基づく動的時間周波数分割二重化(D-TFDD)方式を提案する。
分散化された部分観測可能なマルコフ決定過程(Dec-POMDP)として問題を定式化する。
本稿では,グローバルリソースを分散的に最適化するために,Wolpertinger Deep Deterministic Policy gradient (FWDDPG)アルゴリズムという,連合強化学習(RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-04T07:39:21Z) - Effective Multi-User Delay-Constrained Scheduling with Deep Recurrent
Reinforcement Learning [28.35473469490186]
マルチユーザ遅延制約スケジューリングは、無線通信、ライブストリーミング、クラウドコンピューティングを含む多くの現実世界アプリケーションにおいて重要である。
Recurrent Softmax Delayed Deep Double Deterministic Policy Gradient (mathttRSD4$) という深部強化学習アルゴリズムを提案する。
$mathttRSD4$は、それぞれLagrangianのデュアルと遅延に敏感なキューによるリソースと遅延の制約を保証する。
また、リカレントニューラルネットワーク(RNN)によって実現されたメモリ機構により、部分的可観測性にも効率よく取り組み、ユーザレベルの分解とノードレベルを導入している。
論文 参考訳(メタデータ) (2022-08-30T08:44:15Z) - State-Augmented Learnable Algorithms for Resource Management in Wireless
Networks [124.89036526192268]
本稿では,無線ネットワークにおける資源管理問題を解決するためのステート拡張アルゴリズムを提案する。
提案アルゴリズムは, RRM決定を可能, ほぼ最適に行うことができることを示す。
論文 参考訳(メタデータ) (2022-07-05T18:02:54Z) - Computation Offloading and Resource Allocation in F-RANs: A Federated
Deep Reinforcement Learning Approach [67.06539298956854]
フォグ無線アクセスネットワーク(フォグ無線アクセスネットワーク、F-RAN)は、ユーザのモバイルデバイス(MD)が計算タスクを近くのフォグアクセスポイント(F-AP)にオフロードできる有望な技術である。
論文 参考訳(メタデータ) (2022-06-13T02:19:20Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Smart Scheduling based on Deep Reinforcement Learning for Cellular
Networks [18.04856086228028]
深部強化学習(DRL)に基づくスマートスケジューリング手法を提案する。
実装フレンドリーな設計、すなわちエージェントのためのスケーラブルなニューラルネットワーク設計と仮想環境トレーニングフレームワークを提供する。
本研究では, DRLベースのスマートスケジューリングが従来のスケジューリング方式を上回り, 実用システムにも適用できることを示した。
論文 参考訳(メタデータ) (2021-03-22T02:09:16Z) - Deep Reinforcement Learning for Resource Constrained Multiclass
Scheduling in Wireless Networks [0.0]
セットアップでは、ランダムに到着するサービス要求に対応するために、利用可能な限られた帯域幅のリソースを割り当てます。
本稿では,Deep Setsと組み合わせた分布型Deep Deterministic Policy Gradient (DDPG)アルゴリズムを提案する。
提案アルゴリズムは, 合成データと実データの両方で検証し, 従来手法に対する一貫した利得を示す。
論文 参考訳(メタデータ) (2020-11-27T09:49:38Z) - Critic Regularized Regression [70.8487887738354]
批判正規化回帰(CRR)形式を用いてデータからポリシーを学習するための新しいオフラインRLアルゴリズムを提案する。
CRRは驚くほどよく動作し、高次元の状態と行動空間を持つタスクにスケールする。
論文 参考訳(メタデータ) (2020-06-26T17:50:26Z) - Stacked Auto Encoder Based Deep Reinforcement Learning for Online
Resource Scheduling in Large-Scale MEC Networks [44.40722828581203]
オンラインリソーススケジューリングフレームワークは、IoT(Internet of Things)の全ユーザに対して、重み付けされたタスクレイテンシの総和を最小化するために提案されている。
以下を含む深層強化学習(DRL)に基づく解法を提案する。
DRLがポリシーネットワークをトレーニングし、最適なオフロードポリシーを見つけるのを支援するために、保存および優先されたエクスペリエンスリプレイ(2p-ER)を導入する。
論文 参考訳(メタデータ) (2020-01-24T23:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。