論文の概要: Deep Reinforcement Learning for QoS-Constrained Resource Allocation in
Multiservice Networks
- arxiv url: http://arxiv.org/abs/2003.02643v1
- Date: Tue, 3 Mar 2020 19:32:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 22:35:03.752433
- Title: Deep Reinforcement Learning for QoS-Constrained Resource Allocation in
Multiservice Networks
- Title(参考訳): マルチサービスネットワークにおけるQoS制約資源配分のための深層強化学習
- Authors: Juno V. Saraiva, Iran M. Braga Jr., Victor F. Monteiro, F. Rafael M.
Lima, Tarcisio F. Maciel, Walter C. Freitas Jr. and F. Rodrigo P. Cavalcanti
- Abstract要約: 本稿では、マルチサービス無線システムにおける満足度保証に対するスペクトル効率の最大化を主な目的とする非最適化問題に焦点をあてる。
本稿では,Reinforcement Learning (RL) フレームワークに基づくソリューションを提案し,各エージェントがローカル環境とのインタラクションによってポリシーを見つける決定を行う。
スループットと停止率の観点から、後者のほぼ最適性能を示す。
- 参考スコア(独自算出の注目度): 0.3324986723090368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this article, we study a Radio Resource Allocation (RRA) that was
formulated as a non-convex optimization problem whose main aim is to maximize
the spectral efficiency subject to satisfaction guarantees in multiservice
wireless systems. This problem has already been previously investigated in the
literature and efficient heuristics have been proposed. However, in order to
assess the performance of Machine Learning (ML) algorithms when solving
optimization problems in the context of RRA, we revisit that problem and
propose a solution based on a Reinforcement Learning (RL) framework.
Specifically, a distributed optimization method based on multi-agent deep RL is
developed, where each agent makes its decisions to find a policy by interacting
with the local environment, until reaching convergence. Thus, this article
focuses on an application of RL and our main proposal consists in a new deep RL
based approach to jointly deal with RRA, satisfaction guarantees and Quality of
Service (QoS) constraints in multiservice celular networks. Lastly, through
computational simulations we compare the state-of-art solutions of the
literature with our proposal and we show a near optimal performance of the
latter in terms of throughput and outage rate.
- Abstract(参考訳): 本稿では,マルチサービス無線システムにおける満足度保証に基づくスペクトル効率を最大化することを目的とした,非凸最適化問題として定式化された無線資源割り当て(rra)について検討する。
この問題はすでに文献で研究されており、効率的なヒューリスティックスが提案されている。
しかし、RRAの文脈で最適化問題を解く際に機械学習(ML)アルゴリズムの性能を評価するために、その問題を再検討し、強化学習(RL)フレームワークに基づく解決策を提案する。
具体的には,マルチエージェントのdeep rlに基づく分散最適化手法を開発し,各エージェントが収束するまで,局所環境と相互作用して方針を見出す決定を下す。
そこで本論文では,RLの適用に焦点をあて,本提案では,RRAと共同で扱うための深層RLベースのアプローチ,満足度保証,マルチサービスセルラーネットワークにおけるQuality of Service(QoS)制約について述べる。
最後に,計算シミュレーションにより,文献の最先端の解を提案手法と比較し,スループットと停止率の観点から,後者の最適性能を示す。
関連論文リスト
- Semi-Supervised Learning Approach for Efficient Resource Allocation with
Network Slicing in O-RAN [5.6189692698829115]
Open Radio Access Network (O-RAN) は、ネットワークオペレーターにとって有望なソリューションである。
xAPP(x-applications)の効果的なコーディネーションの確保は、柔軟性の向上とネットワーク性能の最適化に不可欠である。
我々は、O-RANにおけるネットワークスライシングとリソースアロケーションのために、複数の独立したxAPPを協調させることを目的として、リソースアロケーション問題に革新的なアプローチを導入する。
論文 参考訳(メタデータ) (2024-01-16T22:23:27Z) - Federated Multi-Level Optimization over Decentralized Networks [55.776919718214224]
エージェントが隣人としか通信できないネットワーク上での分散マルチレベル最適化の問題について検討する。
ネットワーク化されたエージェントが1つの時間スケールで異なるレベルの最適化問題を解くことができる新しいゴシップに基づく分散マルチレベル最適化アルゴリズムを提案する。
提案アルゴリズムは, ネットワークサイズと線形にスケーリングし, 各種アプリケーション上での最先端性能を示す。
論文 参考訳(メタデータ) (2023-10-10T00:21:10Z) - Safe and Accelerated Deep Reinforcement Learning-based O-RAN Slicing: A
Hybrid Transfer Learning Approach [20.344810727033327]
我々は,DRLをベースとしたO-RANスライシングにおいて,安全かつ迅速な収束を実現するためのハイブリッドTL支援手法を提案し,設計する。
提案されたハイブリッドアプローチは、少なくとも7.7%と20.7%は、平均的な初期報酬値と収束シナリオの割合を改善している。
論文 参考訳(メタデータ) (2023-09-13T18:58:34Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Optimization of Image Transmission in a Cooperative Semantic
Communication Networks [68.2233384648671]
画像伝送のためのセマンティック通信フレームワークを開発した。
サーバは、セマンティックコミュニケーション技術を用いて、画像の集合を協調的にユーザへ送信する。
抽出した意味情報と原画像との相関関係を測定するために,マルチモーダル・メトリックを提案する。
論文 参考訳(メタデータ) (2023-01-01T15:59:13Z) - Multi-Resource Allocation for On-Device Distributed Federated Learning
Systems [79.02994855744848]
本研究は,デバイス上の分散フェデレーション学習(FL)システムにおいて,レイテンシとエネルギー消費の重み付け和を最小化する分散マルチリソース割り当て方式を提案する。
システム内の各モバイルデバイスは、指定された領域内でモデルトレーニングプロセスを実行し、それぞれパラメータの導出とアップロードを行うための計算と通信資源を割り当てる。
論文 参考訳(メタデータ) (2022-11-01T14:16:05Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Learning based E2E Energy Efficient in Joint Radio and NFV Resource
Allocation for 5G and Beyond Networks [21.60295771932728]
無線部に電力とスペクトル資源を割り当てる最適化問題を定式化する。
コア部では、すべてのユーザの効率を確保するために、関数の連鎖、配置、スケジューリングを行う。
次に、最大エントロピーフレームワークに基づくソフトアクター・クリティカル・ディープラーニング(SAC-DRL)アルゴリズムを用いて、上記のMDPを解く。
論文 参考訳(メタデータ) (2021-07-13T11:19:48Z) - A Heuristically Assisted Deep Reinforcement Learning Approach for
Network Slice Placement [0.7885276250519428]
本稿では,Deep Reinforcement Learning(DRL)に基づくハイブリッド配置ソリューションと,Power of Two Choices原則に基づく専用最適化を提案する。
提案したHuristically-Assisted DRL (HA-DRL) は,他の最先端手法と比較して学習プロセスの高速化と資源利用の促進を可能にする。
論文 参考訳(メタデータ) (2021-05-14T10:04:17Z) - Dynamic RAN Slicing for Service-Oriented Vehicular Networks via
Constrained Learning [40.5603189901241]
品質の異なる車両用インターネット(IoV)サービスにおける無線アクセスネットワーク(RAN)スライシング問題について検討する。
無線スペクトルと演算資源を動的に割り当てる動的RANスライシングフレームワークを提案する。
RAWSは,ベンチマークと比較すると,要求を高い確率で満たしながら,システムコストを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2020-12-03T15:08:38Z) - Resource Allocation via Model-Free Deep Learning in Free Space Optical
Communications [119.81868223344173]
本稿では,自由空間光学(FSO)通信におけるチャネルフェージング効果の緩和のための資源配分の一般的な問題について検討する。
本フレームワークでは,FSO資源割り当て問題を解決する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-27T17:38:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。