論文の概要: Consensus-based Decentralized Multi-agent Reinforcement Learning for Random Access Network Optimization
- arxiv url: http://arxiv.org/abs/2508.07001v1
- Date: Sat, 09 Aug 2025 14:39:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.648501
- Title: Consensus-based Decentralized Multi-agent Reinforcement Learning for Random Access Network Optimization
- Title(参考訳): ランダムアクセスネットワーク最適化のための合意に基づく分散マルチエージェント強化学習
- Authors: Myeung Suk Oh, Zhiyao Zhang, FNU Hairi, Alvaro Velasquez, Jia Liu,
- Abstract要約: 我々は、衝突を最小限に抑え、デバイス間の通信の公平性を確保するために、効率的なランダムアクセス媒体アクセス制御プロトコルを設計する。
提案するMARLアルゴリズムは,他のベースラインと比較してRAネットワーク性能を著しく向上させることができる。
- 参考スコア(独自算出の注目度): 10.232557034642015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With wireless devices increasingly forming a unified smart network for seamless, user-friendly operations, random access (RA) medium access control (MAC) design is considered a key solution for handling unpredictable data traffic from multiple terminals. However, it remains challenging to design an effective RA-based MAC protocol to minimize collisions and ensure transmission fairness across the devices. While existing multi-agent reinforcement learning (MARL) approaches with centralized training and decentralized execution (CTDE) have been proposed to optimize RA performance, their reliance on centralized training and the significant overhead required for information collection can make real-world applications unrealistic. In this work, we adopt a fully decentralized MARL architecture, where policy learning does not rely on centralized tasks but leverages consensus-based information exchanges across devices. We design our MARL algorithm over an actor-critic (AC) network and propose exchanging only local rewards to minimize communication overhead. Furthermore, we provide a theoretical proof of global convergence for our approach. Numerical experiments show that our proposed MARL algorithm can significantly improve RA network performance compared to other baselines.
- Abstract(参考訳): 無線デバイスがシームレスでユーザフレンドリな操作のための統一されたスマートネットワークを形成するにつれ、ランダムアクセス制御(RA)メディアアクセス制御(MAC)設計は、複数の端末からの予測不可能なデータトラフィックを処理するための重要なソリューションと考えられている。
しかし、衝突を最小限に抑え、デバイス間の通信の公平性を確保するために、効果的なRAベースのMACプロトコルを設計することは依然として困難である。
RA性能を最適化するために, 既存のマルチエージェント強化学習(MARL)アプローチが提案されているが, 情報収集に必要な集中学習への依存と, 現実のアプリケーションに非現実的になる。
本研究では、ポリシー学習が集中型タスクに頼るのではなく、デバイス間でのコンセンサスに基づく情報交換を利用する、完全に分散化されたMARLアーキテクチャを採用する。
我々は,アクタ・クリティカル(AC)ネットワーク上でMARLアルゴリズムを設計し,通信オーバーヘッドを最小限に抑えるために,ローカル報酬のみを交換することを提案する。
さらに、我々のアプローチに対する大域収束の理論的証明を提供する。
数値実験により,提案したMARLアルゴリズムはRAネットワークの性能を他のベースラインと比較して大幅に向上できることが示された。
関連論文リスト
- RESIST: Resilient Decentralized Learning Using Consensus Gradient Descent [11.22833419439317]
経験的堅牢性リスク(ERM)は、現代の機械学習(ML)の基盤である
本稿では,MITM(man-in-the-middle)攻撃に焦点をあてる。
本稿では,敵に妥協された通信リンクに対して堅牢なアルゴリズムであるRESISTを提案する。
論文 参考訳(メタデータ) (2025-02-11T21:48:10Z) - An Offline Multi-Agent Reinforcement Learning Framework for Radio Resource Management [5.771885923067511]
オフラインマルチエージェント強化学習(MARL)は、オンラインMARLの重要な制限に対処する。
無線リソース管理(RRM)のためのオフラインMARLアルゴリズムを提案する。
我々は、分散実行(CTDE)を用いた集中型、独立型、集中型3つの訓練パラダイムを評価する。
論文 参考訳(メタデータ) (2025-01-22T16:25:46Z) - Heterogeneous Multi-Agent Reinforcement Learning for Distributed Channel Access in WLANs [47.600901884970845]
本稿では,マルチエージェント強化学習(MARL)を用いて,無線ローカルネットワークにおける分散チャネルアクセスに対処する。
特に、エージェントがモデルトレーニングに価値ベースまたはポリシーベースの強化学習アルゴリズムを不均一に採用する、より実践的なケースについて考察する。
我々は、分散実行パラダイムを用いた集中型トレーニングを採用し、異種エージェントの協調を可能にする、異種MARLトレーニングフレームワークQPMIXを提案する。
論文 参考訳(メタデータ) (2024-12-18T13:50:31Z) - Design Optimization of NOMA Aided Multi-STAR-RIS for Indoor Environments: A Convex Approximation Imitated Reinforcement Learning Approach [51.63921041249406]
非直交多重アクセス(Noma)により、複数のユーザが同じ周波数帯域を共有でき、同時に再構成可能なインテリジェントサーフェス(STAR-RIS)を送信および反射することができる。
STAR-RISを屋内に展開することは、干渉緩和、電力消費、リアルタイム設定における課題を提示する。
複数のアクセスポイント(AP)、STAR-RIS、NOMAを利用した新しいネットワークアーキテクチャが屋内通信のために提案されている。
論文 参考訳(メタデータ) (2024-06-19T07:17:04Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - Cooperative Multi-Agent Reinforcement Learning Based Distributed Dynamic
Spectrum Access in Cognitive Radio Networks [46.723006378363785]
ダイナミックスペクトルアクセス(DSA)は、非効率的なスペクトル利用の問題を改善するための、有望なパラダイムである。
本稿では,一般的な認知無線ネットワークにおけるマルチユーザに対する分散DSA問題について検討する。
我々は、各認知ユーザに対する状態の部分的観測可能性に対処するために、DRQN(Deep Recurrent Q-network)を用いている。
論文 参考訳(メタデータ) (2021-06-17T06:52:21Z) - Reconfigurable Intelligent Surface Assisted Mobile Edge Computing with
Heterogeneous Learning Tasks [53.1636151439562]
モバイルエッジコンピューティング(MEC)は、AIアプリケーションに自然なプラットフォームを提供します。
再構成可能なインテリジェントサーフェス(RIS)の助けを借りて、MECで機械学習タスクを実行するインフラストラクチャを提示します。
具体的には,モバイルユーザの送信パワー,基地局のビームフォーミングベクトル,risの位相シフト行列を共同で最適化することにより,参加ユーザの学習誤差を最小化する。
論文 参考訳(メタデータ) (2020-12-25T07:08:50Z) - Toward Multiple Federated Learning Services Resource Sharing in Mobile
Edge Networks [88.15736037284408]
本稿では,マルチアクセスエッジコンピューティングサーバにおいて,複数のフェデレーション付き学習サービスの新たなモデルについて検討する。
共同資源最適化とハイパーラーニング率制御の問題,すなわちMS-FEDLを提案する。
シミュレーションの結果,提案アルゴリズムの収束性能を実証した。
論文 参考訳(メタデータ) (2020-11-25T01:29:41Z) - Federated Learning with Cooperating Devices: A Consensus Approach for
Massive IoT Networks [8.456633924613456]
分散システムにおける機械学習モデルをトレーニングするための新しいパラダイムとして、フェデレートラーニング(FL)が登場している。
提案するFLアルゴリズムは,ネットワーク内のデータ操作を行うデバイスとの協調を利用して,完全に分散された(あるいはサーバレス)学習手法を提案する。
このアプローチは、分散接続とコンピューティングを特徴とするネットワークを超えて、5G 内で FL を統合するための基盤となる。
論文 参考訳(メタデータ) (2019-12-27T15:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。