論文の概要: Joint Resource Management for MC-NOMA: A Deep Reinforcement Learning
Approach
- arxiv url: http://arxiv.org/abs/2103.15371v1
- Date: Mon, 29 Mar 2021 06:52:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 03:24:30.494318
- Title: Joint Resource Management for MC-NOMA: A Deep Reinforcement Learning
Approach
- Title(参考訳): MC-NOMAの共同資源管理 : 深層強化学習アプローチ
- Authors: Shaoyang Wang and Tiejun Lv and Wei Ni and Norman C. Beaulieu and Y.
Jay Guo
- Abstract要約: 本稿では, 共同資源管理(JRM)への新規かつ効果的な深層強化学習(DRL)に基づくアプローチを提案する。
実用的なマルチキャリア非直交多重アクセス(MC-NOMA)システムでは、ハードウェアの感度と不完全な連続干渉キャンセル(SIC)が考慮されます。
DRL-JRM方式はシステムスループットと干渉耐性の観点から既存の方式よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 39.54978539962088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a novel and effective deep reinforcement learning
(DRL)-based approach to addressing joint resource management (JRM) in a
practical multi-carrier non-orthogonal multiple access (MC-NOMA) system, where
hardware sensitivity and imperfect successive interference cancellation (SIC)
are considered. We first formulate the JRM problem to maximize the weighted-sum
system throughput. Then, the JRM problem is decoupled into two iterative
subtasks: subcarrier assignment (SA, including user grouping) and power
allocation (PA). Each subtask is a sequential decision process. Invoking a deep
deterministic policy gradient algorithm, our proposed DRL-based JRM (DRL-JRM)
approach jointly performs the two subtasks, where the optimization objective
and constraints of the subtasks are addressed by a new joint reward and
internal reward mechanism. A multi-agent structure and a convolutional neural
network are adopted to reduce the complexity of the PA subtask. We also tailor
the neural network structure for the stability and convergence of DRL-JRM.
Corroborated by extensive experiments, the proposed DRL-JRM scheme is superior
to existing alternatives in terms of system throughput and resistance to
interference, especially in the presence of many users and strong inter-cell
interference. DRL-JRM can flexibly meet individual service requirements of
users.
- Abstract(参考訳): 本稿では,ハードウェアの感度と不完全連続干渉キャンセラ(sic)を考慮した,実用的なマルチキャリア非直交多重アクセス(mc-noma)システムにおいて,協調資源管理(jrm)に取り組むための,新規かつ効果的な深層強化学習(drl)に基づくアプローチを提案する。
まず、重み付きシステムスループットを最大化するためにJRM問題を定式化する。
次に、JRM問題をサブキャリア割り当て(SA、ユーザグループ化を含む)とパワーアロケーション(PA)の2つの反復サブタスクに分割する。
各サブタスクはシーケンシャルな決定プロセスである。
提案したDRL-JRM(DRL-JRM)アプローチは,提案手法を用いて2つのサブタスクを共同で実行し,各サブタスクの最適化目標と制約を新たな共同報酬機構と内部報酬機構によって対処する。
PAサブタスクの複雑さを低減するために、マルチエージェント構造と畳み込みニューラルネットワークを採用する。
また、DRL-JRMの安定性と収束性のためにニューラルネットワーク構造を調整する。
DRL-JRM方式は,システムスループットや干渉耐性,特に多くのユーザの存在とセル間干渉の強い点で,既存の代替手法よりも優れている。
DRL-JRMはユーザの個々のサービス要件を柔軟に満たすことができる。
関連論文リスト
- Design Optimization of NOMA Aided Multi-STAR-RIS for Indoor Environments: A Convex Approximation Imitated Reinforcement Learning Approach [51.63921041249406]
非直交多重アクセス(Noma)により、複数のユーザが同じ周波数帯域を共有でき、同時に再構成可能なインテリジェントサーフェス(STAR-RIS)を送信および反射することができる。
STAR-RISを屋内に展開することは、干渉緩和、電力消費、リアルタイム設定における課題を提示する。
複数のアクセスポイント(AP)、STAR-RIS、NOMAを利用した新しいネットワークアーキテクチャが屋内通信のために提案されている。
論文 参考訳(メタデータ) (2024-06-19T07:17:04Z) - A Bayesian Framework of Deep Reinforcement Learning for Joint O-RAN/MEC
Orchestration [12.914011030970814]
マルチアクセスエッジコンピューティング(MEC)は、コモディティプラットフォーム上でOpen Radio Access Network(O-RAN)と一緒に実装することで、低コストなデプロイメントを実現する。
本稿では,ベイジアンディープ強化学習(RL)を用いたO-RAN/MEC協調オーケストレーションを提案する。
論文 参考訳(メタデータ) (2023-12-26T18:04:49Z) - A State-Augmented Approach for Learning Optimal Resource Management
Decisions in Wireless Networks [58.720142291102135]
マルチユーザ無線ネットワークにおける無線リソース管理(RRM)問題について考察する。
目標は、ユーザのエルゴード平均パフォーマンスに制約を受けるネットワーク全体のユーティリティ機能を最適化することである。
本稿では, RRM の制約に対応する2変数の集合を入力として, 瞬時ネットワーク状態と並行して, RRM のパラメータ化を提案する。
論文 参考訳(メタデータ) (2022-10-28T21:24:13Z) - State-Augmented Learnable Algorithms for Resource Management in Wireless
Networks [124.89036526192268]
本稿では,無線ネットワークにおける資源管理問題を解決するためのステート拡張アルゴリズムを提案する。
提案アルゴリズムは, RRM決定を可能, ほぼ最適に行うことができることを示す。
論文 参考訳(メタデータ) (2022-07-05T18:02:54Z) - Multi-Agent Deep Reinforcement Learning for Cost- and Delay-Sensitive
Virtual Network Function Placement and Routing [36.51614774073273]
本稿では、仮想ネットワーク機能(VNF)配置とルーティング(P&R)を解決するための、効果的で新しいマルチエージェント深部強化学習(MADRL)法を提案する。
我々はまず,NP完全であるサービス遅延と資源消費コストの重み付けを最小化するために,VNF P&R問題を構築する。
2つのサブタスクを実行するためにMADRL-P&Rフレームワークを設計した。
論文 参考訳(メタデータ) (2022-06-24T08:24:48Z) - Hierarchical Multi-Agent DRL-Based Framework for Joint Multi-RAT
Assignment and Dynamic Resource Allocation in Next-Generation HetNets [21.637440368520487]
本稿では,次世代無線ネットワーク(HetNets)における共同最適無線アクセス技術(RATs)の割り当てと電力割り当てによるコストアウェアダウンリンク総和率の問題について考察する。
本稿では,DeepRAT(DeepRAT)と呼ばれる階層型多エージェント深層強化学習(DRL)フレームワークを提案する。
特に、DeepRATフレームワークは、問題を2つの主要なステージに分解する: 単一エージェントのDeep Q Networkアルゴリズムを実装するRATs-EDs割り当てステージと、マルチエージェントのDeep Deterministic Policy Gradientを利用するパワー割り当てステージである。
論文 参考訳(メタデータ) (2022-02-28T09:49:44Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。