論文の概要: Design Optimization of NOMA Aided Multi-STAR-RIS for Indoor Environments: A Convex Approximation Imitated Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2406.13280v2
- Date: Tue, 17 Sep 2024 15:02:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 21:51:13.718395
- Title: Design Optimization of NOMA Aided Multi-STAR-RIS for Indoor Environments: A Convex Approximation Imitated Reinforcement Learning Approach
- Title(参考訳): 室内環境のためのNOMA支援マルチスターRISの設計最適化:凸近似Imitated Reinforcement Learningアプローチ
- Authors: Yu Min Park, Sheikh Salman Hassan, Yan Kyaw Tun, Eui-Nam Huh, Walid Saad, Choong Seon Hong,
- Abstract要約: 非直交多重アクセス(Noma)により、複数のユーザが同じ周波数帯域を共有でき、同時に再構成可能なインテリジェントサーフェス(STAR-RIS)を送信および反射することができる。
STAR-RISを屋内に展開することは、干渉緩和、電力消費、リアルタイム設定における課題を提示する。
複数のアクセスポイント(AP)、STAR-RIS、NOMAを利用した新しいネットワークアーキテクチャが屋内通信のために提案されている。
- 参考スコア(独自算出の注目度): 51.63921041249406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-orthogonal multiple access (NOMA) enables multiple users to share the same frequency band, and simultaneously transmitting and reflecting reconfigurable intelligent surface (STAR-RIS) provides 360-degree full-space coverage, optimizing both transmission and reflection for improved network performance and dynamic control of the indoor environment. However, deploying STAR-RIS indoors presents challenges in interference mitigation, power consumption, and real-time configuration. In this work, a novel network architecture utilizing multiple access points (APs), STAR-RISs, and NOMA is proposed for indoor communication. To address these, we formulate an optimization problem involving user assignment, access point (AP) beamforming, and STAR-RIS phase control. A decomposition approach is used to solve the complex problem efficiently, employing a many-to-one matching algorithm for user-AP assignment and K-means clustering for resource management. Additionally, multi-agent deep reinforcement learning (MADRL) is leveraged to optimize the control of the STAR-RIS. Within the proposed MADRL framework, a novel approach is introduced in which each decision variable acts as an independent agent, enabling collaborative learning and decision making. The MADRL framework is enhanced by incorporating convex approximation (CA), which accelerates policy learning through suboptimal solutions from successive convex approximation (SCA), leading to faster adaptation and convergence. Simulations demonstrate significant improvements in network utility compared to baseline approaches.
- Abstract(参考訳): 非直交多重アクセス(NOMA)により、複数のユーザが同じ周波数帯域を共有でき、同時に再構成可能なインテリジェントサーフェス(STAR-RIS)が360度フルスペースカバレッジを提供し、送信とリフレクションの両方を最適化し、ネットワーク性能と屋内環境の動的制御を改善している。
しかし、STAR-RISを屋内に展開することは、干渉緩和、電力消費、リアルタイム構成における課題を提起する。
本研究では,複数のアクセスポイント(AP),STAR-RIS,NOMAを利用した新しいネットワークアーキテクチャを提案する。
これらの問題に対処するために、ユーザ割り当て、アクセスポイント(AP)ビームフォーミング、STAR-RIS位相制御を含む最適化問題を定式化する。
分解手法は複雑な問題を効率的に解くために用いられ、ユーザ-AP割り当てに複数対1のマッチングアルゴリズム、リソース管理にK平均クラスタリングを用いる。
さらにマルチエージェント深部強化学習(MADRL)を用いてSTAR-RISの制御を最適化する。
提案するMADRLフレームワーク内では,各決定変数が独立したエージェントとして機能し,協調学習と意思決定を可能にする新しいアプローチが導入された。
MADRLフレームワークは、コンベックス近似(CA)を導入して強化され、コンベックス近似(SCA)からの準最適解によるポリシー学習を加速し、適応と収束を高速化する。
シミュレーションでは、ベースラインアプローチと比較してネットワークユーティリティが大幅に改善されている。
関連論文リスト
- Joint User Pairing and Beamforming Design of Multi-STAR-RISs-Aided NOMA
in the Indoor Environment via Multi-Agent Reinforcement Learning [15.95700167294255]
NOMAでは複数のユーザが同じリソースを共有できるため、システムのスペクトル効率が向上する。
STAR-RISは、カバレッジの向上、スペクトル効率の向上、通信信頼性の向上を実現している。
しかし、STAR-RISは反射と透過に対応する振幅と位相シフトを同時に最適化する必要がある。
論文 参考訳(メタデータ) (2023-11-15T05:18:36Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - DRL Enabled Coverage and Capacity Optimization in STAR-RIS Assisted
Networks [55.0821435415241]
無線通信における新たなパラダイムとして,STAR-RISのカバレッジとキャパシティ性能の分析が不可欠だが難しい。
STAR-RIS支援ネットワークにおけるカバレッジとキャパシティ最適化の問題を解決するために,多目的ポリシー最適化(MO-PPO)アルゴリズムを提案する。
MO-PPOアルゴリズムの性能向上のために、アクション値ベースの更新戦略(AVUS)と損失関数ベースの更新戦略(LFUS)の2つの更新戦略を検討した。
論文 参考訳(メタデータ) (2022-09-01T14:54:36Z) - Coverage and Capacity Optimization in STAR-RISs Assisted Networks: A
Machine Learning Approach [102.00221938474344]
再構成可能なインテリジェントサーフェス (STAR-RIS) アシストネットワークを同時に送信および反射するカバレッジとキャパシティ最適化のための新しいモデルを提案する。
損失関数ベースの更新戦略はコアポイントであり、各更新時にmin-normソルバによってカバレッジとキャパシティの両方の損失関数の重みを計算することができる。
解析結果から,提案手法は固定重みに基づくMOアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-04-13T13:52:22Z) - Reconfigurable Intelligent Surface Assisted Mobile Edge Computing with
Heterogeneous Learning Tasks [53.1636151439562]
モバイルエッジコンピューティング(MEC)は、AIアプリケーションに自然なプラットフォームを提供します。
再構成可能なインテリジェントサーフェス(RIS)の助けを借りて、MECで機械学習タスクを実行するインフラストラクチャを提示します。
具体的には,モバイルユーザの送信パワー,基地局のビームフォーミングベクトル,risの位相シフト行列を共同で最適化することにより,参加ユーザの学習誤差を最小化する。
論文 参考訳(メタデータ) (2020-12-25T07:08:50Z) - Optimization-driven Deep Reinforcement Learning for Robust Beamforming
in IRS-assisted Wireless Communications [54.610318402371185]
Intelligent Reflecting Surface (IRS)は、マルチアンテナアクセスポイント(AP)から受信機へのダウンリンク情報伝達を支援する有望な技術である。
我々は、APのアクティブビームフォーミングとIRSのパッシブビームフォーミングを共同最適化することで、APの送信電力を最小化する。
過去の経験からビームフォーミング戦略に適応できる深層強化学習(DRL)手法を提案する。
論文 参考訳(メタデータ) (2020-05-25T01:42:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。