論文の概要: Deep Reinforcement Learning in mmW-NOMA: Joint Power Allocation and
Hybrid Beamforming
- arxiv url: http://arxiv.org/abs/2205.06814v1
- Date: Fri, 13 May 2022 07:55:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-20 05:33:57.802205
- Title: Deep Reinforcement Learning in mmW-NOMA: Joint Power Allocation and
Hybrid Beamforming
- Title(参考訳): mmW-NOMAにおける深部強化学習:連系パワーアロケーションとハイブリッドビームフォーミング
- Authors: Abbas Akbarpour-Kasgari, Mehrdad Ardebilipour
- Abstract要約: ミリ波(mmW)周波数帯域における非直交多重アクセス(NOMA)アプローチにより、データレートの高要求が保証される。
mmW-NOMAシステムの連系電力配分とハイブリッドビームフォーミングは、機械学習と制御理論のアプローチの最近の進歩によってもたらされる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High demand of data rate in the next generation of wireless communication
could be ensured by Non-Orthogonal Multiple Access (NOMA) approach in the
millimetre-wave (mmW) frequency band. Decreasing the interference on the other
users while maintaining the bit rate via joint power allocation and beamforming
is mandatory to guarantee the high demand of bit-rate. Furthermore, mmW
frequency bands dictates the hybrid structure for beamforming because of the
trade-off in implementation and performance, simultaneously. In this paper,
joint power allocation and hybrid beamforming of mmW-NOMA systems is brought up
via recent advances in machine learning and control theory approaches called
Deep Reinforcement Learning (DRL). Actor-critic phenomena is exploited to
measure the immediate reward and providing the new action to maximize the
overall Q-value of the network. Additionally, to improve the stability of the
approach, we have utilized Soft Actor-Critic (SAC) approach where overall
reward and action entropy is maximized, simultaneously. The immediate reward
has been defined based on the soft weighted summation of the rate of all the
users. The soft weighting is based on the achieved rate and allocated power of
each user. Furthermore, the channel responses between the users and base
station (BS) is defined as the state of environment, while action space is
involved of the digital and analog beamforming weights and allocated power to
each user. The simulation results represent the superiority of the proposed
approach rather than the Time-Division Multiple Access (TDMA) and Non-Line of
Sight (NLOS)-NOMA in terms of sum-rate of the users. It's outperformance is
caused by the joint optimization and independency of the proposed approach to
the channel responses.
- Abstract(参考訳): 次世代無線通信におけるデータレートの高需要はミリメートル波(mmw)周波数帯における非直交多重アクセス(noma)アプローチによって保証される。
ビットレートの高要求を保証するためには、ジョイントパワーアロケーションとビームフォーミングによるビットレートを維持しながら、他のユーザへの干渉を減らす必要がある。
さらに、ミリ波周波数帯域は、実装と性能のトレードオフにより、ビームフォーミングのハイブリッド構造を同時に規定する。
本稿では, 深層強化学習(DRL, Deep Reinforcement Learning)と呼ばれる機械学習と制御理論の最近の進歩を通じて, mmW-NOMAシステムの連系電力配分とハイブリッドビームフォーミングについて述べる。
アクター批判現象を利用して、即時報酬を測定し、ネットワーク全体のQ値を最大化する新しいアクションを提供する。
さらに,本手法の安定性向上のために,全報酬と行動エントロピーを同時に最大化するソフトアクタ・クリティカル(SAC)アプローチを採用した。
即時報酬は、すべてのユーザーの率の柔らかい重み付けの和に基づいて定義されている。
ソフト重み付けは、各ユーザの達成率と割り当てられたパワーに基づいて行われる。
さらに、ユーザと基地局(BS)間のチャネル応答は環境状態として定義され、アクション空間はデジタルおよびアナログビームフォーミングウェイトに関係し、各ユーザに対して電力を割り当てる。
シミュレーションの結果は、ユーザの総和率の観点から、TDMA(Time-Division Multiple Access)やNon-Line of Sight(NLOS)-NOMA(Non-Line of Sight)よりも提案手法の方が優れていることを示す。
この性能は,チャネル応答に対する提案手法の協調最適化と非依存性によって引き起こされる。
関連論文リスト
- High Efficiency Inference Accelerating Algorithm for NOMA-based Mobile
Edge Computing [23.88527790721402]
デバイス、エッジサーバ、クラウド間の推論モデルを分割することで、EIの性能を大幅に向上させることができる。
B5G/6Gのキーとなる技術であるNOMAは、膨大な接続と高スペクトル効率を実現することができる。
本稿では,エッジでのモデル推論を高速化する効果的な通信資源割当アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-26T02:05:52Z) - Wirelessly Powered Federated Learning Networks: Joint Power Transfer,
Data Sensing, Model Training, and Resource Allocation [24.077525032187893]
フェデレートラーニング(FL)は、無線ネットワークで多くの成功を収めている。
FLの実装は、モバイルデバイス(MD)のエネルギー制限と、MDにおけるトレーニングデータの可用性によって妨げられている。
無線送電と持続可能なFLネットワークの統合
論文 参考訳(メタデータ) (2023-08-09T13:38:58Z) - Active RIS-aided EH-NOMA Networks: A Deep Reinforcement Learning
Approach [66.53364438507208]
アクティブな再構成可能なインテリジェントサーフェス(RIS)支援マルチユーザダウンリンク通信システムについて検討した。
非直交多重アクセス(NOMA)はスペクトル効率を向上させるために使用され、活性RISはエネルギー回収(EH)によって駆動される。
ユーザの動的通信状態を予測するために,高度なLSTMベースのアルゴリズムを開発した。
増幅行列と位相シフト行列RISを結合制御するためにDDPGに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-11T13:16:28Z) - Joint Power Allocation and Beamformer for mmW-NOMA Downlink Systems by
Deep Reinforcement Learning [0.0]
mmW-NOMAシステムの連系電力配分とビームフォーミングは必須である。
我々は,ユーザを最適化した要約に導くポリシー生成のために,Deep Reinforcement Learning (DRL) アプローチを利用した。
論文 参考訳(メタデータ) (2022-05-13T07:42:03Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - Optimal Power Allocation for Rate Splitting Communications with Deep
Reinforcement Learning [61.91604046990993]
このレターでは、レート分割多重アクセスネットワークにおいて、ユーザの電力割り当てを最適化するための新しいフレームワークを紹介します。
ネットワークでは、ユーザのために意図されたメッセージは、単一の共通部分と個々のプライベート部分に分割される。
論文 参考訳(メタデータ) (2021-07-01T06:32:49Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。