論文の概要: Increasing Energy Efficiency of Massive-MIMO Network via Base Stations
Switching using Reinforcement Learning and Radio Environment Maps
- arxiv url: http://arxiv.org/abs/2103.11891v1
- Date: Mon, 8 Mar 2021 21:57:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 00:57:19.965496
- Title: Increasing Energy Efficiency of Massive-MIMO Network via Base Stations
Switching using Reinforcement Learning and Radio Environment Maps
- Title(参考訳): 強化学習と無線環境マップを用いた基地局切替による大規模mimoネットワークのエネルギー効率向上
- Authors: Marcin Hoffmann, Pawel Kryszkiewicz, Adrian Kliks
- Abstract要約: M-MIMO伝送はアンテナ数で高エネルギー消費が増加します。
本稿では,未利用BSのオン/オフによるEE改善について検討する。
- 参考スコア(独自算出の注目度): 3.781421673607642
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Energy Efficiency (EE) is of high importance while considering Massive
Multiple-Input Multiple-Output (M-MIMO) networks where base stations (BSs) are
equipped with an antenna array composed of up to hundreds of elements. M-MIMO
transmission, although highly spectrally efficient, results in high energy
consumption growing with the number of antennas. This paper investigates EE
improvement through switching on/off underutilized BSs. It is proposed to use
the location-aware approach, where data about an optimal active BSs set is
stored in a Radio Environment Map (REM). For efficient acquisition, processing
and utilization of the REM data, reinforcement learning (RL) algorithms are
used. State-of-the-art exploration/exploitation methods including e-greedy,
Upper Confidence Bound (UCB), and Gradient Bandit are evaluated. Then
analytical action filtering, and an REM-based Exploration Algorithm (REM-EA)
are proposed to improve the RL convergence time. Algorithms are evaluated using
an advanced, system-level simulator of an M-MIMO Heterogeneous Network (HetNet)
utilizing an accurate 3D-ray-tracing radio channel model. The proposed RL-based
BSs switching algorithm is proven to provide 70% gains in EE over a
state-of-the-art algorithm using an analytical heuristic. Moreover, the
proposed action filtering and REM-EA can reduce RL convergence time in relation
to the best-performing state-of-the-art exploration method by 60% and 83%,
respectively.
- Abstract(参考訳): 基地局(BS)に最大数百個の素子からなるアンテナアレイを設けるM-MIMO(Massive Multiple-Input Multiple-Output)ネットワークを考えると,エネルギー効率(EE)が重要である。
M-MIMO伝送はスペクトル効率が高いが、アンテナ数とともに高エネルギー消費が増加する。
本稿では,未利用BSのオン/オフによるEE改善について検討する。
無線環境マップ(rem)に最適なbssセットに関するデータを格納する位置認識手法を用いることが提案されている。
REMデータの効率的な取得、処理、利用には、強化学習(RL)アルゴリズムを用いる。
e-greedy, upper Confidence Bound (UCB) および Gradient Bandit を含む最先端の探査・探査手法の評価を行った。
次に、RL収束時間を改善するために、解析的動作フィルタリングとREMに基づく探索アルゴリズム(REM-EA)を提案する。
M-MIMO異種ネットワーク(HetNet)の高度システムレベルシミュレータを用いて,正確な3D線トレーシング無線チャネルモデルを用いてアルゴリズムの評価を行った。
提案したRLベースのBSsスイッチングアルゴリズムは,解析的ヒューリスティックを用いた最先端アルゴリズムよりも,EEが70%向上することが証明されている。
さらに,提案する動作フィルタリングとrem-eaは,最先端の探索法に対して,それぞれ60%,83%のrl収束時間を削減できる。
関連論文リスト
- Traffic Learning and Proactive UAV Trajectory Planning for Data Uplink
in Markovian IoT Models [6.49537221266081]
IoTネットワークでは、従来のリソース管理スキームはデバイスと基地局の間のメッセージ交換に依存している。
マルコフイベントに基づくIoTデバイスのトラフィック到着を推定する,新たな学習ベースのフレームワークを提案する。
本稿では,各UAVの最適方針を最適化する深層強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-24T21:57:55Z) - Joint User Association, Interference Cancellation and Power Control for
Multi-IRS Assisted UAV Communications [80.35959154762381]
インテリジェント反射面(IRS)支援無人航空機(UAV)通信は、地上基地局の負荷を低コストで軽減することが期待されている。
既存の研究は主に、複数のIRSではなく単一のIRSの配置とリソース割り当てに焦点を当てている。
我々は,共同IRSユーザアソシエーションのための新しい最適化アルゴリズム,UAVの軌道最適化,逐次干渉キャンセル(SIC)復号命令スケジューリング,電力割り当てを提案する。
論文 参考訳(メタデータ) (2023-12-08T01:57:10Z) - Multiagent Reinforcement Learning with an Attention Mechanism for
Improving Energy Efficiency in LoRa Networks [52.96907334080273]
ネットワーク規模が大きくなるにつれて、パケット衝突によるLoRaネットワークのエネルギー効率は急激に低下する。
マルチエージェント強化学習(MALoRa)に基づく伝送パラメータ割り当てアルゴリズムを提案する。
シミュレーションの結果,MALoRaはベースラインアルゴリズムと比較してシステムEEを著しく改善することがわかった。
論文 参考訳(メタデータ) (2023-09-16T11:37:23Z) - Beam Management Driven by Radio Environment Maps in O-RAN Architecture [2.0305676256390934]
M-MIMOは5Gと将来の6Gネットワークの主要な技術の一つと考えられている。
ビームの静的集合、すなわちグリッド・オブ・ビーム(GoB)を利用するM-MIMOネットワークの実装が容易である。
ビームマネジメント(BM)は、無線環境に関する歴史的知識を考慮し、強化することができる。
提案手法はOpen Radio Access Network (O-RAN) アーキテクチャに準拠している。
論文 参考訳(メタデータ) (2023-03-21T11:09:31Z) - MMTSA: Multimodal Temporal Segment Attention Network for Efficient Human
Activity Recognition [33.94582546667864]
マルチモーダルセンサは、人間の活動認識のための正確な機械学習方法を開発するために補完情報を提供する。
本稿では,RGBカメラと慣性計測ユニット(IMU)を用いたHARのための効率的なマルチモーダルニューラルネットワークアーキテクチャを提案する。
3つの確立された公開データセットを用いて,HARにおけるMTSAの有効性と効率を評価した。
論文 参考訳(メタデータ) (2022-10-14T08:05:16Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - Path Design and Resource Management for NOMA enhanced Indoor Intelligent
Robots [58.980293789967575]
通信可能な屋内知的ロボット(IR)サービスフレームワークを提案する。
室内レイアウトとチャネル状態を決定論的に記述できるレゴモデリング手法が提案されている。
調査対象の無線マップは、強化学習エージェントを訓練するための仮想環境として呼び出される。
論文 参考訳(メタデータ) (2020-11-23T21:45:01Z) - Learning Centric Power Allocation for Edge Intelligence [84.16832516799289]
分散データを収集し、エッジで機械学習を実行するエッジインテリジェンスが提案されている。
本稿では,経験的分類誤差モデルに基づいて無線リソースを割り当てるLCPA法を提案する。
実験の結果,提案したLCPAアルゴリズムは,他のパワーアロケーションアルゴリズムよりも有意に優れていた。
論文 参考訳(メタデータ) (2020-07-21T07:02:07Z) - Millimeter Wave Communications with an Intelligent Reflector:
Performance Optimization and Distributional Reinforcement Learning [119.97450366894718]
ミリ波基地局のダウンリンクマルチユーザ通信を最適化するための新しいフレームワークを提案する。
チャネル状態情報(CSI)をリアルタイムで計測するために,チャネル推定手法を開発した。
最適赤外反射を学習し、ダウンリンク能力の期待を最大化するために、分布強化学習(DRL)手法を提案する。
論文 参考訳(メタデータ) (2020-02-24T22:18:54Z) - Reconfigurable Intelligent Surface Assisted Multiuser MISO Systems
Exploiting Deep Reinforcement Learning [21.770491711632832]
再構成可能なインテリジェントサーフェス(RIS)は、将来の6世代(6G)無線通信システムにおいて重要な技術の一つとして推測されている。
本稿では, 基地局におけるビームフォーミング行列とRISにおける位相シフト行列の接合設計について, 深部強化学習(DRL)の最近の進歩を活用して検討する。
提案アルゴリズムは環境から学習し、その振る舞いを徐々に改善するだけでなく、2つの最先端ベンチマークと比較して同等の性能が得られる。
論文 参考訳(メタデータ) (2020-02-24T04:28:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。