論文の概要: Multi Agent DeepRL based Joint Power and Subchannel Allocation in IAB
networks
- arxiv url: http://arxiv.org/abs/2309.00144v1
- Date: Thu, 31 Aug 2023 21:30:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-04 15:11:41.615211
- Title: Multi Agent DeepRL based Joint Power and Subchannel Allocation in IAB
networks
- Title(参考訳): IABネットワークにおけるマルチエージェントDeepRLを用いたジョイントパワーとサブチャネルアロケーション
- Authors: Lakshya Jagadish, Banashree Sarma, R. Manivasakan
- Abstract要約: 統合アクセスとバックハウリング(IRL)は、将来の世代におけるより高いデータレートに対する前例のない要求を満たすための、実行可能なアプローチである。
本稿では,分数ノードに付随する巨大なアクション空間の問題を,Deep Q-Learning Networkを用いて処理する方法を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Integrated Access and Backhauling (IAB) is a viable approach for meeting the
unprecedented need for higher data rates of future generations, acting as a
cost-effective alternative to dense fiber-wired links. The design of such
networks with constraints usually results in an optimization problem of
non-convex and combinatorial nature. Under those situations, it is challenging
to obtain an optimal strategy for the joint Subchannel Allocation and Power
Allocation (SAPA) problem. In this paper, we develop a multi-agent Deep
Reinforcement Learning (DeepRL) based framework for joint optimization of power
and subchannel allocation in an IAB network to maximize the downlink data rate.
SAPA using DDQN (Double Deep Q-Learning Network) can handle computationally
expensive problems with huge action spaces associated with multiple users and
nodes. Unlike the conventional methods such as game theory, fractional
programming, and convex optimization, which in practice demand more and more
accurate network information, the multi-agent DeepRL approach requires less
environment network information. Simulation results show the proposed scheme's
promising performance when compared with baseline (Deep Q-Learning Network and
Random) schemes.
- Abstract(参考訳): IAB(Integrated Access and Backhauling)は、次世代のデータレートに対する前例のない要求を満たすためのアプローチであり、高密度のファイバー配線リンクに代わる費用対効果がある。
このような制約付きネットワークの設計は、通常、非凸および組合せ的性質の最適化問題をもたらす。
このような状況下では,sapa(joint subchannel allocation and power allocation)問題の最適戦略を得ることが困難である。
本稿では,iabネットワークにおける電力とサブチャネル割り当ての協調最適化のための多エージェント深層強化学習(deeprl)ベースのフレームワークを開発し,ダウンリンクデータレートを最大化する。
DDQN (Double Deep Q-Learning Network) を用いたSAPAは、複数のユーザやノードに関連する巨大なアクション空間を持つ計算コストの高い問題を処理できる。
ゲーム理論や分数プログラミング、凸最適化といった従来の手法とは異なり、実際にはより正確なネットワーク情報を必要とするため、マルチエージェントのDeepRLアプローチでは環境ネットワーク情報が少ない。
シミュレーション結果は,ベースライン(ディープqラーニングネットワークとランダム)と比較した場合,提案手法の有望な性能を示す。
関連論文リスト
- DiffSG: A Generative Solver for Network Optimization with Diffusion Model [75.27274046562806]
拡散生成モデルはより広い範囲の解を考えることができ、学習パラメータによるより強力な一般化を示す。
拡散生成モデルの本質的な分布学習を利用して高品質な解を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T07:56:21Z) - Joint Admission Control and Resource Allocation of Virtual Network Embedding via Hierarchical Deep Reinforcement Learning [69.00997996453842]
本稿では,仮想ネットワークの埋め込みにおいて,入出力制御と資源配分を併用して学習する深層強化学習手法を提案する。
HRL-ACRAは,受入率と長期平均収益の両面で,最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2024-06-25T07:42:30Z) - Multi-Agent Reinforcement Learning for Power Control in Wireless
Networks via Adaptive Graphs [1.1861167902268832]
多エージェント深部強化学習(MADRL)は、電力制御のような幅広い複雑な最適化問題に対処するための有望な手法として登場した。
本稿では,これらの課題を緩和する有効な手段として,分散エージェント間の通信誘導構造としてグラフを用いることを提案する。
論文 参考訳(メタデータ) (2023-11-27T14:25:40Z) - Learning RL-Policies for Joint Beamforming Without Exploration: A Batch
Constrained Off-Policy Approach [1.0080317855851213]
本稿では,ネットワークにおけるパラメータキャンセル最適化の問題点について考察する。
探索と学習のために実世界でアルゴリズムをデプロイすることは、探索せずにデータによって達成できることを示す。
論文 参考訳(メタデータ) (2023-10-12T18:36:36Z) - Federated Multi-Level Optimization over Decentralized Networks [55.776919718214224]
エージェントが隣人としか通信できないネットワーク上での分散マルチレベル最適化の問題について検討する。
ネットワーク化されたエージェントが1つの時間スケールで異なるレベルの最適化問題を解くことができる新しいゴシップに基づく分散マルチレベル最適化アルゴリズムを提案する。
提案アルゴリズムは, ネットワークサイズと線形にスケーリングし, 各種アプリケーション上での最先端性能を示す。
論文 参考訳(メタデータ) (2023-10-10T00:21:10Z) - Hierarchical Multi-Marginal Optimal Transport for Network Alignment [52.206006379563306]
マルチネットワークアライメントは,複数ネットワーク上での協調学習に必須の要件である。
マルチネットワークアライメントのための階層型マルチマージ最適トランスポートフレームワークHOTを提案する。
提案するHOTは,有効性とスケーラビリティの両面で,最先端の大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-10-06T02:35:35Z) - A Reinforcement Learning Approach to Optimize Available Network
Bandwidth Utilization [3.254879465902239]
深部強化学習(RL)を用いた並列TCPストリームの最適数を求めるための新しい手法を提案する。
我々のRLアルゴリズムは、最大15%高いスループットを達成しながら、ほぼ最適解を40%高速に見つけることができる。
論文 参考訳(メタデータ) (2022-11-22T02:00:05Z) - A Heuristically Assisted Deep Reinforcement Learning Approach for
Network Slice Placement [0.7885276250519428]
本稿では,Deep Reinforcement Learning(DRL)に基づくハイブリッド配置ソリューションと,Power of Two Choices原則に基づく専用最適化を提案する。
提案したHuristically-Assisted DRL (HA-DRL) は,他の最先端手法と比較して学習プロセスの高速化と資源利用の促進を可能にする。
論文 参考訳(メタデータ) (2021-05-14T10:04:17Z) - Data-Driven Random Access Optimization in Multi-Cell IoT Networks with
NOMA [78.60275748518589]
非直交多重アクセス(NOMA)は、5Gネットワーク以降で大規模なマシンタイプ通信(mMTC)を可能にする重要な技術です。
本稿では,高密度空間分散マルチセル無線IoTネットワークにおけるランダムアクセス効率向上のために,NOMAを適用した。
ユーザ期待容量の幾何学的平均を最大化するために,各IoTデバイスの伝送確率を調整したランダムチャネルアクセス管理の新たな定式化を提案する。
論文 参考訳(メタデータ) (2021-01-02T15:21:08Z) - DeepSlicing: Deep Reinforcement Learning Assisted Resource Allocation
for Network Slicing [20.723527476555574]
ネットワークスライシングにより、同じ物理インフラストラクチャ上で複数の仮想ネットワークが動作し、5G以降のさまざまなユースケースをサポートすることができる。
これらのユースケースには、通信や計算、レイテンシやスループットといったさまざまなパフォーマンス指標など、非常に多様なネットワークリソース要求があります。
乗算器の交互方向法(ADMM)と深部強化学習(DRL)を統合したDeepSlicingを提案する。
論文 参考訳(メタデータ) (2020-08-17T20:52:19Z) - Deep Adaptive Inference Networks for Single Image Super-Resolution [72.7304455761067]
シングルイメージ超解像(SISR)は、ディープ畳み込みニューラルネットワーク(CNN)の展開により、近年大きく進歩している。
本稿では,深部SISR(AdaDSR)の適応型推論ネットワークを活用することで,この問題に対処する。
我々のAdaDSRは、SISRモデルをバックボーンとし、画像の特徴とリソース制約を入力として取り、ローカルネットワーク深さのマップを予測する軽量アダプタモジュールを備える。
論文 参考訳(メタデータ) (2020-04-08T10:08:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。