論文の概要: Resource Management in Wireless Networks via Multi-Agent Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2002.06215v2
- Date: Mon, 11 Jan 2021 06:04:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 04:49:49.517716
- Title: Resource Management in Wireless Networks via Multi-Agent Deep
Reinforcement Learning
- Title(参考訳): マルチエージェント深部強化学習による無線ネットワークの資源管理
- Authors: Navid Naderializadeh, Jaroslaw Sydir, Meryem Simsek, Hosein Nikopour
- Abstract要約: マルチエージェント深部強化学習(RL)を用いた無線ネットワークにおける分散リソース管理と干渉軽減機構を提案する。
ネットワーク内の各送信機に深部RLエージェントを装備し、それに関連するユーザからの遅延観測を受信するとともに、近隣のエージェントと観測を交換する。
提案フレームワークは,エージェントが他のエージェントの同時決定を知らずに,同時かつ分散的に意思決定を行うことを可能にする。
- 参考スコア(独自算出の注目度): 15.091308167639815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a mechanism for distributed resource management and interference
mitigation in wireless networks using multi-agent deep reinforcement learning
(RL). We equip each transmitter in the network with a deep RL agent that
receives delayed observations from its associated users, while also exchanging
observations with its neighboring agents, and decides on which user to serve
and what transmit power to use at each scheduling interval. Our proposed
framework enables agents to make decisions simultaneously and in a distributed
manner, unaware of the concurrent decisions of other agents. Moreover, our
design of the agents' observation and action spaces is scalable, in the sense
that an agent trained on a scenario with a specific number of transmitters and
users can be applied to scenarios with different numbers of transmitters and/or
users. Simulation results demonstrate the superiority of our proposed approach
compared to decentralized baselines in terms of the tradeoff between average
and $5^{th}$ percentile user rates, while achieving performance close to, and
even in certain cases outperforming, that of a centralized
information-theoretic baseline. We also show that our trained agents are robust
and maintain their performance gains when experiencing mismatches between train
and test deployments.
- Abstract(参考訳): マルチエージェント深部強化学習(RL)を用いた無線ネットワークにおける分散リソース管理と干渉軽減機構を提案する。
ネットワーク内の各送信機に、関連するユーザから遅延した観測を受信するディープrlエージェントを装備するとともに、隣接エージェントと観測結果を交換し、どのユーザに仕えるべきかと、スケジューリング間隔毎に使用する電力を決定する。
提案するフレームワークにより,エージェントは他のエージェントの同時決定を意識せずに,同時かつ分散的に意思決定することができる。
さらに, エージェントの観測と行動空間の設計は, 特定の数の送信機とユーザを持つシナリオで訓練されたエージェントが, 異なる数の送信機および/またはユーザを持つシナリオに適用できるという意味で, スケーラブルである。
シミュレーション結果から,提案手法は,平均および5,4,5,4,5,4,7のユーザ率のトレードオフの点で,分散ベースラインよりも優れており,その性能は一元的情報理論ベースラインよりも高い場合もある。
また、トレーニングされたエージェントは堅牢で、トレーニングとテストのデプロイメントのミスマッチを経験する場合、パフォーマンスの向上を維持することも示しています。
関連論文リスト
- Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Quantifying Agent Interaction in Multi-agent Reinforcement Learning for
Cost-efficient Generalization [63.554226552130054]
マルチエージェント強化学習(MARL)における一般化の課題
エージェントが未確認のコプレイヤーに影響される程度は、エージェントのポリシーと特定のシナリオに依存する。
与えられたシナリオと環境におけるエージェント間の相互作用強度を定量化する指標であるLoI(Level of Influence)を提示する。
論文 参考訳(メタデータ) (2023-10-11T06:09:26Z) - Compressed Regression over Adaptive Networks [58.79251288443156]
分散エージェントのネットワークによって達成可能な性能を導出し,通信制約や回帰問題を解消し,適応的に解決する。
エージェントによって最適化に必要なパラメータをオンラインで学習できる最適化アロケーション戦略を考案する。
論文 参考訳(メタデータ) (2023-04-07T13:41:08Z) - Distributed Transmission Control for Wireless Networks using Multi-Agent
Reinforcement Learning [0.9176056742068812]
マルチエージェント強化学習のレンズによる伝送制御の問題点について検討する。
我々は、異なる行動空間の効果を研究することによって、この協調行動を実現する。
独立エージェントを用いたマルチエージェント強化学習では,我々のアプローチと類似したアプローチが有用である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-13T17:53:00Z) - Robust Event-Driven Interactions in Cooperative Multi-Agent Learning [0.0]
本稿では,マルチエージェント学習システムにおけるエージェント間の通信を,基礎となるマルコフ決定プロセスの本質的ロバスト性を利用して削減する手法を提案する。
いわゆるロバストネス代理関数(オフライン)を計算し、エージェントがシステム内の他のエージェントを更新する前に、その状態の測定値がどれくらい逸脱するかを保守的に示す。
これにより、完全に分散された決定関数が実現され、エージェントが他を更新する必要があるかどうかを判断できるようになる。
論文 参考訳(メタデータ) (2022-04-07T11:00:39Z) - Explaining Reinforcement Learning Policies through Counterfactual
Trajectories [147.7246109100945]
人間の開発者は、RLエージェントがテスト時にうまく機能することを検証しなければならない。
本手法では, エージェントの挙動をより広い軌道分布で示すことにより, エージェントの挙動を分布変化下で表現する。
本研究では,2つのエージェント検証タスクのうちの1つに対して,ベースライン法よりも優れたスコアを得られることを示す。
論文 参考訳(メタデータ) (2022-01-29T00:52:37Z) - Multi-Agent Adversarial Attacks for Multi-Channel Communications [24.576538640840976]
無線通信シナリオにおける敵をモデル化・解析するためのマルチエージェント・敵システム(MAAS)を提案する。
相手を学習エージェントとしてモデル化することにより,提案するMAASが,送信者戦略の事前知識を必要とせず,送信チャネルと割り当てされた各パワーを適切に選択可能であることを示す。
論文 参考訳(メタデータ) (2022-01-22T23:57:00Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - AoI-Aware Resource Allocation for Platoon-Based C-V2X Networks via
Multi-Agent Multi-Task Reinforcement Learning [22.890835786710316]
本稿は,小隊の無線リソース管理を意識した情報年齢(AoI)の問題について検討する。
複数の自律型プラトンは、C-V2X通信技術を利用して、協力的認識メッセージ(CAM)をフォロワーに広める。
我々は,マルチエージェント強化学習(marl)に基づく分散リソース割当フレームワークを活用し,各小隊リーダ(pl)がエージェントとして行動し,環境と相互作用して最適方針を学ぶ。
論文 参考訳(メタデータ) (2021-05-10T08:39:56Z) - Team Deep Mixture of Experts for Distributed Power Control [23.612400109629544]
我々は、よく知られたMixture of Experts(MoE)モデルから着想を得たアーキテクチャを提案する。
時間変動統計シナリオを効率的に追跡する Team-DMoE モデルの有効性を示す。
論文 参考訳(メタデータ) (2020-07-28T12:01:06Z) - Randomized Entity-wise Factorization for Multi-Agent Reinforcement
Learning [59.62721526353915]
実世界のマルチエージェント設定は、エージェントや非エージェントエンティティのタイプや量が異なるタスクを伴うことが多い。
我々の方法は、これらの共通点を活用することを目的としており、「観察対象のランダムに選択されたサブグループのみを考えるとき、各エージェントが期待する効用は何か?」という問いを投げかける。
論文 参考訳(メタデータ) (2020-06-07T18:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。