論文の概要: Multi-agent Reinforcement Learning for Energy Saving in Multi-Cell
Massive MIMO Systems
- arxiv url: http://arxiv.org/abs/2402.03204v1
- Date: Mon, 5 Feb 2024 17:15:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 14:43:12.886023
- Title: Multi-agent Reinforcement Learning for Energy Saving in Multi-Cell
Massive MIMO Systems
- Title(参考訳): マルチセルMIMOシステムにおける省エネルギーのためのマルチエージェント強化学習
- Authors: Tianzhang Cai, Qichen Wang, Shuai Zhang, \"Ozlem Tu\u{g}fe Demir,
Cicek Cavdar
- Abstract要約: マルチセルネットワークにおける基地局 (BS) の総エネルギー消費を最小化するマルチエージェント強化学習 (MARL) アルゴリズムを開発した。
トレーニングされたMAPPOエージェントは,基本方針よりも優れた性能を示すことを示す。
具体的には、オートスリープモード1のアルゴリズムと比較して、MAPPO隣のポリシーは低交通時間帯では消費電力を約8.7%削減し、高交通時間帯ではエネルギー効率を約19%向上させる。
- 参考スコア(独自算出の注目度): 6.614630708703594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a multi-agent reinforcement learning (MARL) algorithm to minimize
the total energy consumption of multiple massive MIMO (multiple-input
multiple-output) base stations (BSs) in a multi-cell network while preserving
the overall quality-of-service (QoS) by making decisions on the multi-level
advanced sleep modes (ASMs) and antenna switching of these BSs. The problem is
modeled as a decentralized partially observable Markov decision process
(DEC-POMDP) to enable collaboration between individual BSs, which is necessary
to tackle inter-cell interference. A multi-agent proximal policy optimization
(MAPPO) algorithm is designed to learn a collaborative BS control policy. To
enhance its scalability, a modified version called MAPPO-neighbor policy is
further proposed. Simulation results demonstrate that the trained MAPPO agent
achieves better performance compared to baseline policies. Specifically,
compared to the auto sleep mode 1 (symbol-level sleeping) algorithm, the
MAPPO-neighbor policy reduces power consumption by approximately 8.7% during
low-traffic hours and improves energy efficiency by approximately 19% during
high-traffic hours, respectively.
- Abstract(参考訳): マルチレベル・アドバンスト睡眠モード(ASM)とアンテナ切替によるQoS(Quality-of-Service)を保ちながら、マルチセルネットワークにおける複数のMIMO(multiple-input multiple-output)ベースステーション(BS)の総エネルギー消費を最小化するマルチエージェント強化学習(MARL)アルゴリズムを開発した。
この問題は、細胞間干渉に対処するために必要な個々のBS間の協調を可能にするために、分散化された部分的に観測可能なマルコフ決定プロセス(DEC-POMDP)としてモデル化されている。
多エージェント近似ポリシー最適化(MAPPO)アルゴリズムは協調的なBS制御ポリシーを学習するために設計されている。
拡張性を高めるため、MAPPO-neighbor Policyと呼ばれる改良版が提案されている。
シミュレーションの結果,トレーニングされたMAPPOエージェントは基本方針よりも優れた性能を示した。
具体的には、自動睡眠モード1(シンボルレベル睡眠)アルゴリズムと比較して、MAPPO隣りの政策は低軌道時間では消費電力を約8.7%削減し、高軌道時間ではエネルギー効率を約19%向上させる。
関連論文リスト
- Energy-Efficient Sleep Mode Optimization of 5G mmWave Networks Using Deep Contextual MAB [0.0]
モバイルネットワークにおけるこのエネルギー消費を削減する効果的な戦略は、基地局(BS)のスリープモード最適化(SMO)である。
本稿では,3次元都市環境におけるmmWave BSに対する新しいSMO手法を提案する。
提案手法は,ユーザレートと平均スループットの10分の1のパーセンタイルにおいて,他のSM戦略よりも優れている。
論文 参考訳(メタデータ) (2024-05-15T17:37:28Z) - Energy Management of Multi-mode Plug-in Hybrid Electric Vehicle using
Multi-agent Deep Reinforcement Learning [6.519522573636577]
多モードプラグインハイブリッド電気自動車(PHEV)技術は、脱炭に寄与する経路の1つである。
本稿では,多モードPHEVのエネルギー管理のためのマルチエージェント深部強化学習(MADRL)制御法について検討する。
統合DDPG設定と0.2の関連性比を用いて、MADRLシステムはシングルエージェント学習システムと比較して最大4%のエネルギーを節約でき、従来のルールベースシステムに比べて最大23.54%のエネルギーを節約できる。
論文 参考訳(メタデータ) (2023-03-16T21:31:55Z) - Distributed-Training-and-Execution Multi-Agent Reinforcement Learning
for Power Control in HetNet [48.96004919910818]
We propose a multi-agent Deep reinforcement learning (MADRL) based power control scheme for the HetNet。
エージェント間の協調を促進するために,MADRLシステムのためのペナルティベースQラーニング(PQL)アルゴリズムを開発した。
このように、エージェントのポリシーは、他のエージェントによってより容易に学習でき、より効率的なコラボレーションプロセスをもたらす。
論文 参考訳(メタデータ) (2022-12-15T17:01:56Z) - Multi-agent Deep Reinforcement Learning for Charge-sustaining Control of
Multi-mode Hybrid Vehicles [9.416703139663705]
電気化は車両の電気部品の増加を必要とする。
本稿では,マルチモードハイブリッド電気自動車におけるエネルギー管理戦略のオンライン最適化に焦点をあてる。
マルチエージェントを用いた新しいサイバー物理学習法が提案されている。
論文 参考訳(メタデータ) (2022-09-06T16:40:55Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - The Surprising Effectiveness of MAPPO in Cooperative, Multi-Agent Games [67.47961797770249]
マルチエージェントPPO(MAPPO)は、集中型値関数を採用するマルチエージェントPPOバリアントである。
MAPPOは,3つの一般的なマルチエージェントテストベッドにおいて,最先端技術に匹敵する性能を実現していることを示す。
論文 参考訳(メタデータ) (2021-03-02T18:59:56Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。