論文の概要: Distributed Transmission Control for Wireless Networks using Multi-Agent
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2205.06800v1
- Date: Fri, 13 May 2022 17:53:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 14:36:29.188243
- Title: Distributed Transmission Control for Wireless Networks using Multi-Agent
Reinforcement Learning
- Title(参考訳): マルチエージェント強化学習を用いた無線ネットワークの分散伝送制御
- Authors: Collin Farquhar, Prem Sagar Pattanshetty Vasanth Kumar, Anu Jagannath,
Jithin Jagannath
- Abstract要約: マルチエージェント強化学習のレンズによる伝送制御の問題点について検討する。
我々は、異なる行動空間の効果を研究することによって、この協調行動を実現する。
独立エージェントを用いたマルチエージェント強化学習では,我々のアプローチと類似したアプローチが有用である可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.9176056742068812
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We examine the problem of transmission control, i.e., when to transmit, in
distributed wireless communications networks through the lens of multi-agent
reinforcement learning. Most other works using reinforcement learning to
control or schedule transmissions use some centralized control mechanism,
whereas our approach is fully distributed. Each transmitter node is an
independent reinforcement learning agent and does not have direct knowledge of
the actions taken by other agents. We consider the case where only a subset of
agents can successfully transmit at a time, so each agent must learn to act
cooperatively with other agents. An agent may decide to transmit a certain
number of steps into the future, but this decision is not communicated to the
other agents, so it the task of the individual agents to attempt to transmit at
appropriate times. We achieve this collaborative behavior through studying the
effects of different actions spaces. We are agnostic to the physical layer,
which makes our approach applicable to many types of networks. We submit that
approaches similar to ours may be useful in other domains that use multi-agent
reinforcement learning with independent agents.
- Abstract(参考訳): 本稿では,複数エージェント強化学習のレンズを通して,分散無線通信ネットワークにおける伝送制御,すなわち送信タイミングの問題について検討する。
送信の制御やスケジューリングに強化学習を用いる作業の多くは集中制御機構を使用しているが、我々のアプローチは完全に分散している。
各送信ノードは独立した強化学習エージェントであり、他のエージェントが行う動作について直接知識を持っていない。
エージェントのサブセットしか一度に送信できない場合を考えると、各エージェントは他のエージェントと協調して行動することを学ぶ必要がある。
エージェントは、特定の数のステップを将来的に送信することを決定できるが、この決定は、他のエージェントと通信されないため、適切なタイミングで送信しようとする個々のエージェントのタスクである。
我々は、異なる行動空間の効果を研究することによって、この協調行動を達成する。
私たちは物理層を知らないので、アプローチは多くの種類のネットワークに適用できます。
このようなアプローチは,独立エージェントによるマルチエージェント強化学習を使用する他のドメインでは有用かもしれない。
関連論文リスト
- Multi-agent assignment via state augmented reinforcement learning [3.4992411324493515]
本稿では,制約付き強化学習を通じて,マルチエージェント配置問題の矛盾する要件に対処する。
我々は,2変数の振動をエージェントに利用してタスク間の交互化を行う状態拡張アプローチを再帰する。
論文 参考訳(メタデータ) (2024-06-03T20:56:12Z) - MADiff: Offline Multi-agent Learning with Diffusion Models [79.18130544233794]
拡散モデル(DM)は、最近オフライン強化学習を含む様々なシナリオで大きな成功を収めた。
この問題に対処する新しい生成型マルチエージェント学習フレームワークであるMADiffを提案する。
本実験は,マルチエージェント学習タスクにおけるベースラインアルゴリズムと比較して,MADiffの優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-27T02:14:09Z) - Multi-agent Deep Covering Skill Discovery [50.812414209206054]
本稿では,複数エージェントの結合状態空間の予測被覆時間を最小化し,マルチエージェントオプションを構築するマルチエージェントDeep Covering Option Discoveryを提案する。
また、MARLプロセスにマルチエージェントオプションを採用するための新しいフレームワークを提案する。
提案アルゴリズムは,アテンション機構とエージェントの相互作用を効果的に把握し,マルチエージェントオプションの同定に成功した。
論文 参考訳(メタデータ) (2022-10-07T00:40:59Z) - Consensus Learning for Cooperative Multi-Agent Reinforcement Learning [12.74348597962689]
協調型マルチエージェント強化学習のためのコンセンサス学習を提案する。
我々は、エージェントのネットワークへの明示的な入力として、推論されたコンセンサスをフィードする。
提案手法は,様々なマルチエージェント強化学習アルゴリズムに拡張することができる。
論文 参考訳(メタデータ) (2022-06-06T12:43:07Z) - Coordinating Policies Among Multiple Agents via an Intelligent
Communication Channel [81.39444892747512]
MARL(Multi-Agent Reinforcement Learning)では、エージェントが直接通信できる特別なチャンネルがしばしば導入される。
本稿では,エージェントの集団的性能を向上させるために,エージェントが提供した信号の伝達と解釈を学習する,インテリジェントなファシリテータを通じてエージェントがコミュニケーションする手法を提案する。
論文 参考訳(メタデータ) (2022-05-21T14:11:33Z) - Explaining Reinforcement Learning Policies through Counterfactual
Trajectories [147.7246109100945]
人間の開発者は、RLエージェントがテスト時にうまく機能することを検証しなければならない。
本手法では, エージェントの挙動をより広い軌道分布で示すことにより, エージェントの挙動を分布変化下で表現する。
本研究では,2つのエージェント検証タスクのうちの1つに対して,ベースライン法よりも優れたスコアを得られることを示す。
論文 参考訳(メタデータ) (2022-01-29T00:52:37Z) - HAMMER: Multi-Level Coordination of Reinforcement Learning Agents via
Learned Messaging [14.960795846548029]
協調型マルチエージェント強化学習(marl)は,ディープニューラルネットワークの表現学習能力を活用することで,大きな成果を上げている。
本稿では、観測空間全体を観測できる単一の、強力な、中央のエージェントが存在する場合と、局所的な観測のみを受信できる複数の、低パワーのローカルエージェントが相互に通信できない場合について考察する。
中央エージェントの役割は、グローバル観察に基づいて、異なるローカルエージェントに送信すべきメッセージを学ぶことであるが、個々のエージェントがよりよい決定を下せるように、どのような追加情報を受け取るべきかを決定することである。
論文 参考訳(メタデータ) (2021-01-18T19:00:12Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z) - The Emergence of Adversarial Communication in Multi-Agent Reinforcement
Learning [6.18778092044887]
多くの現実世界の問題は、複数の自律エージェントの調整を必要とする。
最近の研究は、複雑なマルチエージェント協調を可能にする明示的なコミュニケーション戦略を学ぶためのグラフニューラルネットワーク(GNN)の約束を示している。
一つの利己的なエージェントが高度に操作的なコミュニケーション戦略を学習し、協調的なエージェントチームを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2020-08-06T12:48:08Z) - Learning Individually Inferred Communication for Multi-Agent Cooperation [37.56115000150748]
我々はエージェントエージェントがエージェントエージェントコミュニケーションの事前学習を可能にするために、個別推論通信(I2C)を提案する。
先行知識は因果推論によって学習され、フィードフォワードニューラルネットワークによって実現される。
I2Cは通信オーバーヘッドを減らすだけでなく、様々なマルチエージェント協調シナリオのパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2020-06-11T14:07:57Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。