論文の概要: Energy Efficient Sleep Mode Optimization in 5G mmWave Networks via Multi Agent Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2511.22105v1
- Date: Thu, 27 Nov 2025 04:49:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.39761
- Title: Energy Efficient Sleep Mode Optimization in 5G mmWave Networks via Multi Agent Deep Reinforcement Learning
- Title(参考訳): マルチエージェント深部強化学習による5Gmm波ネットワークの省エネルギー型睡眠モード最適化
- Authors: Saad Masrur, Ismail Guvenc, David Lopez Perez,
- Abstract要約: 本稿では,Double Deep Q-Network (DDQN) を用いた3次元都市環境における適応SMOのためのマルチエージェント深層強化学習フレームワークを提案する。
リアルなBS電力消費モデルとビームフォーミングはEEを正確に定量化するために統合され、スループットの観点から定義される。
MARL-DDQNはAll On, Iterative-Aware Load-based (IT-QoS-LB), MARL-DDPG, MARL-PPOなど,最先端の戦略よりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic sleep mode optimization (SMO) in millimeter-wave (mmWave) networks is essential for maximizing energy efficiency (EE) under stringent quality-of-service (QoS) constraints. However, existing optimization and reinforcement learning (RL) approaches rely on aggregated, static base station (BS) traffic models that fail to capture non-stationary traffic dynamics and suffer from large state-action spaces, limiting real-world deployment. To address these challenges, this paper proposes a multi-agent deep reinforcement learning (MARL) framework using a Double Deep Q-Network (DDQN), referred to as MARL-DDQN, for adaptive SMO in a 3D urban environment with a time-varying and community-based user equipment (UE) mobility model. Unlike conventional single-agent RL, MARL-DDQN enables scalable, distributed decision-making with minimal signaling overhead. A realistic BS power consumption model and beamforming are integrated to accurately quantify EE, while QoS is defined in terms of throughput. The method adapts SMO policies to maximize EE while mitigating inter-cell interference and ensuring throughput fairness. Simulations show that MARL-DDQN outperforms state-of-the-art strategies, including All On, iterative QoS-aware load-based (IT-QoS-LB), MARL-DDPG, and MARL-PPO, achieving up to 0.60 Mbit/Joule EE, 8.5 Mbps 10th-percentile throughput, and meeting QoS constraints 95% of the time under dynamic scenarios.
- Abstract(参考訳): ミリ波(mmWave)ネットワークにおける動的睡眠モード最適化(SMO)は,QoS制約下でのエネルギー効率(EE)の最大化に不可欠である。
しかし、既存の最適化と強化学習(RL)アプローチは、非定常的なトラフィックのダイナミクスを捉えず、大規模なステートアクション空間に悩まされ、実際のデプロイメントを制限する、集約された静的ベースステーション(BS)トラフィックモデルに依存している。
これらの課題に対処するために,MARL-DDQNと呼ばれるDouble Deep Q-Network (DDQN) を用いたマルチエージェント深層強化学習(MARL)フレームワークを提案する。
従来の単一エージェントRLとは異なり、MARL-DDQNは最小のシグナルオーバヘッドでスケーラブルで分散的な意思決定を可能にする。
リアルなBS電力消費モデルとビームフォーミングはEEを正確に定量化するために統合され、QoSはスループットの観点から定義される。
この方法は、セル間干渉を緩和し、スループットの公平性を確保しながら、SMOポリシーを適用してEEを最大化する。
シミュレーションによれば、MARL-DDQNはAll On、反復QoS対応ロードベース(IT-QoS-LB)、MARL-DDPG、MARL-PPOといった最先端戦略より優れており、最大0.60 Mbit/Joule EE、8.5 Mbps 10番目のスループット、QoS制約を満たす。
関連論文リスト
- PASS-Enhanced MEC: Joint Optimization of Task Offloading and Uplink PASS Beamforming [67.78883135636657]
ピンチアンテナシステム (PASS) によるモバイルエッジコンピューティング (MEC) アーキテクチャについて検討した。
PASSは、重要な経路損失と潜在的な信号遮断を効果的に軽減しつつ、短距離ライン・オブ・ライト(LoS)リンクを確立する。
ネットワーク遅延最小化問題を定式化し、アップリンクPASSビームフォーミングとタスクオフロードを共同で最適化する。
論文 参考訳(メタデータ) (2025-10-27T03:04:46Z) - Federated Multi-Agent Reinforcement Learning for Privacy-Preserving and Energy-Aware Resource Management in 6G Edge Networks [0.0]
第6世代(6G)ネットワークは、超高密度でインテリジェントなエッジ環境に向かっている。
厳しいプライバシー モビリティ エネルギー制約の下での資源管理が 重要になります
本稿では,フェデレート・マルチエージェント強化学習フレームワークを紹介する。
論文 参考訳(メタデータ) (2025-09-12T11:41:40Z) - DRL Optimization Trajectory Generation via Wireless Network Intent-Guided Diffusion Models for Optimizing Resource Allocation [58.62766376631344]
本稿では、無線通信ネットワークの異なる状態変化に対応するために、カスタマイズされた無線ネットワークインテント(WNI-G)モデルを提案する。
大規模シミュレーションにより、動的通信システムにおけるスペクトル効率と従来のDRLモデルの変動の安定性が向上する。
論文 参考訳(メタデータ) (2024-10-18T14:04:38Z) - Energy-Efficient Sleep Mode Optimization of 5G mmWave Networks Using Deep Contextual MAB [0.0]
モバイルネットワークにおけるこのエネルギー消費を削減する効果的な戦略は、基地局(BS)のスリープモード最適化(SMO)である。
本稿では,3次元都市環境におけるmmWave BSに対する新しいSMO手法を提案する。
提案手法は,ユーザレートと平均スループットの10分の1のパーセンタイルにおいて,他のSM戦略よりも優れている。
論文 参考訳(メタデータ) (2024-05-15T17:37:28Z) - Adaptive Resource Allocation for Virtualized Base Stations in O-RAN with Online Learning [55.08287089554127]
基地局(vBS)を備えたオープンラジオアクセスネットワークシステムは、柔軟性の向上、コスト削減、ベンダーの多様性、相互運用性のメリットを提供する。
本研究では,予期せぬ「混み合う」環境下であっても,効率的なスループットとvBSエネルギー消費のバランスをとるオンライン学習アルゴリズムを提案する。
提案手法は, 課題のある環境においても, 平均最適性ギャップをゼロにすることで, サブ線形後悔を実現する。
論文 参考訳(メタデータ) (2023-09-04T17:30:21Z) - Deep Reinforcement Learning in mmW-NOMA: Joint Power Allocation and
Hybrid Beamforming [0.0]
ミリ波(mmW)周波数帯域における非直交多重アクセス(NOMA)アプローチにより、データレートの高要求が保証される。
mmW-NOMAシステムの連系電力配分とハイブリッドビームフォーミングは、機械学習と制御理論のアプローチの最近の進歩によってもたらされる。
論文 参考訳(メタデータ) (2022-05-13T07:55:48Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - Modular Deep Reinforcement Learning for Continuous Motion Planning with
Temporal Logic [59.94347858883343]
本稿では,マルコフ決定過程(MDP)をモデルとした自律動的システムの運動計画について検討する。
LDGBA と MDP の間に組込み製品 MDP (EP-MDP) を設計することである。
モデルフリー強化学習(RL)のためのLDGBAベースの報酬形成と割引スキームは、EP-MDP状態にのみ依存する。
論文 参考訳(メタデータ) (2021-02-24T01:11:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。