論文の概要: The Emergence of Wireless MAC Protocols with Multi-Agent Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2108.07144v1
- Date: Mon, 16 Aug 2021 15:18:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 14:47:10.065641
- Title: The Emergence of Wireless MAC Protocols with Multi-Agent Reinforcement
Learning
- Title(参考訳): マルチエージェント強化学習による無線MACプロトコルの創発
- Authors: Mateus P. Mota, Alvaro Valcarce, Jean-Marie Gorce, Jakob Hoydis
- Abstract要約: 本稿では,基地局 (BS) とユーザ機器 (UE) がマルチアクセスシナリオでメディアアクセス制御 (MAC) プロトコルを実現するための新しいフレームワークを提案する。
このフレームワークでは、BSとUEは強化学習(RL)エージェントであり、データを提供するために協力することを学ぶ必要がある。
- 参考スコア(独自算出の注目度): 15.790464310310083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a new framework, exploiting the multi-agent deep
deterministic policy gradient (MADDPG) algorithm, to enable a base station (BS)
and user equipment (UE) to come up with a medium access control (MAC) protocol
in a multiple access scenario. In this framework, the BS and UEs are
reinforcement learning (RL) agents that need to learn to cooperate in order to
deliver data. The network nodes can exchange control messages to collaborate
and deliver data across the network, but without any prior agreement on the
meaning of the control messages. In such a framework, the agents have to learn
not only the channel access policy, but also the signaling policy. The
collaboration between agents is shown to be important, by comparing the
proposed algorithm to ablated versions where either the communication between
agents or the central critic is removed. The comparison with a contention-free
baseline shows that our framework achieves a superior performance in terms of
goodput and can effectively be used to learn a new protocol.
- Abstract(参考訳): 本稿では,Multi-agent Deep Deterministic Policy gradient (MADDPG)アルゴリズムを利用して,基地局 (BS) とユーザ機器 (UE) がマルチアクセスシナリオでメディアアクセス制御 (MAC) プロトコルを作成できるようにする新しいフレームワークを提案する。
このフレームワークでは、BSとUEは強化学習(RL)エージェントであり、データを提供するために協力することを学ぶ必要がある。
ネットワークノードは、制御メッセージの意味に関する事前の合意なしに、制御メッセージを交換して、ネットワークを横断してデータを配信することができる。
このようなフレームワークでは、エージェントはチャネルアクセスポリシーだけでなく、シグナリングポリシーも学ばなければならない。
エージェント間のコラボレーションは、提案アルゴリズムとエージェント間のコミュニケーションが削除されたアブレーションバージョンを比較することによって重要であることが示されている。
競合のないベースラインと比較すると,我々のフレームワークは優れた性能を実現しており,新しいプロトコルを効果的に学習することができる。
関連論文リスト
- DCMAC: Demand-aware Customized Multi-Agent Communication via Upper Bound Training [9.068971933560416]
本稿では,アッパーバウンドトレーニングを用いて理想的なポリシを得る,要求対応のカスタマイズ型マルチエージェント通信プロトコルを提案する。
実験結果から,DCMACは,制約のない,通信制約のないシナリオにおいて,ベースラインアルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2024-09-11T09:23:27Z) - Distributed-Training-and-Execution Multi-Agent Reinforcement Learning
for Power Control in HetNet [48.96004919910818]
We propose a multi-agent Deep reinforcement learning (MADRL) based power control scheme for the HetNet。
エージェント間の協調を促進するために,MADRLシステムのためのペナルティベースQラーニング(PQL)アルゴリズムを開発した。
このように、エージェントのポリシーは、他のエージェントによってより容易に学習でき、より効率的なコラボレーションプロセスをもたらす。
論文 参考訳(メタデータ) (2022-12-15T17:01:56Z) - Scalable Joint Learning of Wireless Multiple-Access Policies and their
Signaling [2.268853004164585]
本稿では,基地局(BS)とユーザ機器(UE)が無線マルチアクセスシナリオでチャネルアクセスポリシーとそのシグナリングを共同で学習できるようにするマルチエージェント強化学習(MARL)フレームワークを適用する。
本フレームワークは,低衝突率を維持しながら,高交通状況においても優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-08T12:38:04Z) - Learning Generalized Wireless MAC Communication Protocols via
Abstraction [34.450315226301576]
本稿では,オートエンコーダ(AE)に基づくアーキテクチャを提案し,それをMAPPO(Multi-Adnt proximal Policy Optimization)フレームワークに組み込む。
観測から抽象化された情報を学習するために,オートエンコーダ(AE)に基づくアーキテクチャを提案し,それをMAPPO(Multi-Adnt proximal Policy Optimization)フレームワークに組み込む。
論文 参考訳(メタデータ) (2022-06-06T14:19:21Z) - RACA: Relation-Aware Credit Assignment for Ad-Hoc Cooperation in
Multi-Agent Deep Reinforcement Learning [55.55009081609396]
本稿では、アドホックな協調シナリオにおいてゼロショットの一般化を実現するRACA(Relation-Aware Credit Assignment)と呼ばれる新しい手法を提案する。
RACAは、エージェント間のトポロジ構造を符号化するために、グラフベースのエンコーダ関係を利用する。
提案手法は,StarCraftIIマイクロマネジメントベンチマークとアドホック協調シナリオのベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2022-06-02T03:39:27Z) - Coordinating Policies Among Multiple Agents via an Intelligent
Communication Channel [81.39444892747512]
MARL(Multi-Agent Reinforcement Learning)では、エージェントが直接通信できる特別なチャンネルがしばしば導入される。
本稿では,エージェントの集団的性能を向上させるために,エージェントが提供した信号の伝達と解釈を学習する,インテリジェントなファシリテータを通じてエージェントがコミュニケーションする手法を提案する。
論文 参考訳(メタデータ) (2022-05-21T14:11:33Z) - Depthwise Convolution for Multi-Agent Communication with Enhanced
Mean-Field Approximation [9.854975702211165]
本稿では,MARL(Multi-agent RL)課題に取り組むための,局所的なコミュニケーション学習に基づく新しい手法を提案する。
まず,局所的な関係を効率的に抽出する深層的畳み込み機能を利用する新しい通信プロトコルを設計する。
第2に,エージェント相互作用の規模を減らすために,平均場近似を導入する。
論文 参考訳(メタデータ) (2022-03-06T07:42:43Z) - Multi-agent Communication with Graph Information Bottleneck under
Limited Bandwidth (a position paper) [92.11330289225981]
多くの実世界のシナリオでは、通信は高価であり、マルチエージェントシステムの帯域幅には一定の制約がある。
通信資源を占有する冗長なメッセージは、情報的メッセージの送信をブロックし、パフォーマンスを損なう。
本稿では,通信グラフ内の構造情報とノード情報を効果的に圧縮し,帯域幅に制約のある設定に対処する,新しいマルチエージェント通信モジュールCommGIBを提案する。
論文 参考訳(メタデータ) (2021-12-20T07:53:44Z) - Learning Connectivity for Data Distribution in Robot Teams [96.39864514115136]
グラフニューラルネットワーク(GNN)を用いたアドホックネットワークにおけるデータ分散のためのタスク非依存,分散化,低レイテンシ手法を提案する。
当社のアプローチは、グローバル状態情報に基づいたマルチエージェントアルゴリズムを各ロボットで利用可能にすることで機能させます。
我々は,情報の平均年齢を報酬関数として強化学習を通じて分散gnn通信政策を訓練し,タスク固有の報酬関数と比較してトレーニング安定性が向上することを示す。
論文 参考訳(メタデータ) (2021-03-08T21:48:55Z) - Monotonic Value Function Factorisation for Deep Multi-Agent
Reinforcement Learning [55.20040781688844]
QMIXは、中央集権的なエンドツーエンドで分散ポリシーをトレーニングできる新しい価値ベースの手法である。
深層多エージェント強化学習のための新しいベンチマークとして,StarCraft Multi-Agent Challenge (SMAC)を提案する。
論文 参考訳(メタデータ) (2020-03-19T16:51:51Z) - Learning Multi-Agent Coordination through Connectivity-driven
Communication [7.462336024223669]
人工マルチエージェントシステムでは、エージェントのコミュニケーションスキルに基づいて協調的なポリシーを学習することができる。
我々は、深い強化学習アプローチであるコネクティビティ駆動通信(CDC)を提案する。
CDCは効果的な協調政策を学習でき、協調ナビゲーションタスクにおいて競合する学習アルゴリズムをオーバーパフォーマンスさせることができる。
論文 参考訳(メタデータ) (2020-02-12T20:58:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。