論文の概要: Deep Reinforcement Learning for Joint Spectrum and Power Allocation in
Cellular Networks
- arxiv url: http://arxiv.org/abs/2012.10682v1
- Date: Sat, 19 Dec 2020 13:14:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 11:06:55.511060
- Title: Deep Reinforcement Learning for Joint Spectrum and Power Allocation in
Cellular Networks
- Title(参考訳): セルネットワークにおける結合スペクトルとパワーアロケーションの深部強化学習
- Authors: Yasar Sinan Nasir and Dongning Guo
- Abstract要約: 2つの異なる深層強化学習アルゴリズムは、共同目標を最大化するために同時に実行および訓練されるように設計されている。
その結果,提案手法は,最先端分数型プログラミングアルゴリズムと,深層強化学習に基づく先行手法の両方に勝ることがわかった。
- 参考スコア(独自算出の注目度): 9.339885875216387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A wireless network operator typically divides the radio spectrum it possesses
into a number of subbands. In a cellular network those subbands are then reused
in many cells. To mitigate co-channel interference, a joint spectrum and power
allocation problem is often formulated to maximize a sum-rate objective. The
best known algorithms for solving such problems generally require instantaneous
global channel state information and a centralized optimizer. In fact those
algorithms have not been implemented in practice in large networks with
time-varying subbands. Deep reinforcement learning algorithms are promising
tools for solving complex resource management problems. A major challenge here
is that spectrum allocation involves discrete subband selection, whereas power
allocation involves continuous variables. In this paper, a learning framework
is proposed to optimize both discrete and continuous decision variables.
Specifically, two separate deep reinforcement learning algorithms are designed
to be executed and trained simultaneously to maximize a joint objective.
Simulation results show that the proposed scheme outperforms both the
state-of-the-art fractional programming algorithm and a previous solution based
on deep reinforcement learning.
- Abstract(参考訳): 無線ネットワークオペレータは通常、保有する電波スペクトルを複数のサブバンドに分割する。
細胞ネットワークでは、これらのサブバンドは多くの細胞で再利用される。
共チャネル干渉を緩和するために、結合スペクトルと電力配分問題をしばしば定式化し、和レートの目的を最大化する。
このような問題を解決する最もよく知られたアルゴリズムは、即時のグローバルチャネル状態情報と集中型オプティマイザを必要とする。
実際、これらのアルゴリズムは時変サブバンドを持つ大規模ネットワークでは実装されていない。
深層強化学習アルゴリズムは、複雑なリソース管理問題を解決する有望なツールである。
ここでの大きな課題は、スペクトル割り当ては離散サブバンド選択を伴うのに対し、パワーアロケーションは連続変数を含むことである。
本稿では,離散決定変数と連続決定変数の両方を最適化するための学習フレームワークを提案する。
具体的には、2つの異なる深層強化学習アルゴリズムを同時に実行し、訓練することで、共同目標を最大化する。
シミュレーションの結果,提案手法は最先端分数型プログラミングアルゴリズムと,深層強化学習に基づく先行手法の両方に勝ることがわかった。
関連論文リスト
- Deep Reinforcement Learning for Interference Management in UAV-based 3D
Networks: Potentials and Challenges [137.47736805685457]
チャネル情報を知らなくても干渉を効果的に軽減できることを示す。
干渉を利用することにより、提案された解決策は民間UAVの継続的な成長を可能にする。
論文 参考訳(メタデータ) (2023-05-11T18:06:46Z) - Multi-agent Reinforcement Learning with Graph Q-Networks for Antenna
Tuning [60.94661435297309]
モバイルネットワークの規模は、手作業による介入や手作業による戦略を使ってアンテナパラメータの最適化を困難にしている。
本研究では,モバイルネットワーク構成をグローバルに最適化するマルチエージェント強化学習アルゴリズムを提案する。
シミュレーション環境におけるアンテナ傾き調整問題とジョイント傾き・電力制御問題に対するアルゴリズムの性能を実証的に示す。
論文 参考訳(メタデータ) (2023-01-20T17:06:34Z) - Graph Reinforcement Learning for Radio Resource Allocation [13.290246410488727]
我々は,無線通信における多くの問題に固有の2種類のリレーショナル先行性を活用するために,グラフ強化学習を利用する。
グラフ強化学習フレームワークを体系的に設計するために,まず状態行列を状態グラフに変換する方法を提案する。
次に,所望の置換特性を満たすグラフニューラルネットワークの汎用手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T08:02:54Z) - Collaborative Learning over Wireless Networks: An Introductory Overview [84.09366153693361]
主に、ワイヤレスデバイス間の協調トレーニングに焦点を合わせます。
過去数十年間、多くの分散最適化アルゴリズムが開発されてきた。
データ局所性 – すなわち、各参加デバイスで利用可能なデータがローカルのままである間、共同モデルを協調的にトレーニングすることができる。
論文 参考訳(メタデータ) (2021-12-07T20:15:39Z) - Cooperative Multi-Agent Reinforcement Learning Based Distributed Dynamic
Spectrum Access in Cognitive Radio Networks [46.723006378363785]
ダイナミックスペクトルアクセス(DSA)は、非効率的なスペクトル利用の問題を改善するための、有望なパラダイムである。
本稿では,一般的な認知無線ネットワークにおけるマルチユーザに対する分散DSA問題について検討する。
我々は、各認知ユーザに対する状態の部分的観測可能性に対処するために、DRQN(Deep Recurrent Q-network)を用いている。
論文 参考訳(メタデータ) (2021-06-17T06:52:21Z) - Deep Reinforcement Learning for Resource Constrained Multiclass
Scheduling in Wireless Networks [0.0]
セットアップでは、ランダムに到着するサービス要求に対応するために、利用可能な限られた帯域幅のリソースを割り当てます。
本稿では,Deep Setsと組み合わせた分布型Deep Deterministic Policy Gradient (DDPG)アルゴリズムを提案する。
提案アルゴリズムは, 合成データと実データの両方で検証し, 従来手法に対する一貫した利得を示す。
論文 参考訳(メタデータ) (2020-11-27T09:49:38Z) - Deep Actor-Critic Learning for Distributed Power Control in Wireless
Mobile Networks [5.930707872313038]
深層強化学習は、教師付きディープラーニングと古典的な最適化に代わるモデルなしの代替手段を提供する。
本稿では,深いアクター・クリティカル・ラーニングの助けを借りて,分散的に実行された連続電力制御アルゴリズムを提案する。
提案した電力制御アルゴリズムを,携帯端末とチャネル条件が急速に変化するタイムスロットシステムに統合する。
論文 参考訳(メタデータ) (2020-09-14T18:29:12Z) - DeepSlicing: Deep Reinforcement Learning Assisted Resource Allocation
for Network Slicing [20.723527476555574]
ネットワークスライシングにより、同じ物理インフラストラクチャ上で複数の仮想ネットワークが動作し、5G以降のさまざまなユースケースをサポートすることができる。
これらのユースケースには、通信や計算、レイテンシやスループットといったさまざまなパフォーマンス指標など、非常に多様なネットワークリソース要求があります。
乗算器の交互方向法(ADMM)と深部強化学習(DRL)を統合したDeepSlicingを提案する。
論文 参考訳(メタデータ) (2020-08-17T20:52:19Z) - A Machine Learning Approach for Task and Resource Allocation in Mobile
Edge Computing Based Networks [108.57859531628264]
無線ネットワークにおいて,共同作業,スペクトル,送信電力配分問題について検討する。
提案アルゴリズムは、標準Q-ラーニングアルゴリズムと比較して、収束に必要なイテレーション数と全ユーザの最大遅延を最大18%、11.1%削減することができる。
論文 参考訳(メタデータ) (2020-07-20T13:46:42Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Channel Assignment in Uplink Wireless Communication using Machine
Learning Approach [54.012791474906514]
本稿では,アップリンク無線通信システムにおけるチャネル割り当て問題について検討する。
我々の目標は、整数チャネル割り当て制約を受ける全ユーザの総和率を最大化することです。
計算複雑性が高いため、機械学習アプローチは計算効率のよい解を得るために用いられる。
論文 参考訳(メタデータ) (2020-01-12T15:54:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。