論文の概要: DACOM: Learning Delay-Aware Communication for Multi-Agent Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2212.01619v1
- Date: Sat, 3 Dec 2022 14:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 19:28:57.753335
- Title: DACOM: Learning Delay-Aware Communication for Multi-Agent Reinforcement
Learning
- Title(参考訳): DACOM:マルチエージェント強化学習のための遅延認識学習
- Authors: Tingting Yuan, Hwei-Ming Chung, Jie Yuan, Xiaoming Fu
- Abstract要約: コミュニケーション遅延を無視することはコラボレーションに有害な影響を与えることを示す。
遅延に適応するための遅延対応マルチエージェント通信モデル(DACOM)を設計する。
実験の結果,DACOMは他の機構に比べて非無視的な性能向上が見られた。
- 参考スコア(独自算出の注目度): 19.36041216505116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Communication is supposed to improve multi-agent collaboration and overall
performance in cooperative Multi-agent reinforcement learning (MARL). However,
such improvements are prevalently limited in practice since most existing
communication schemes ignore communication overheads (e.g., communication
delays). In this paper, we demonstrate that ignoring communication delays has
detrimental effects on collaborations, especially in delay-sensitive tasks such
as autonomous driving. To mitigate this impact, we design a delay-aware
multi-agent communication model (DACOM) to adapt communication to delays.
Specifically, DACOM introduces a component, TimeNet, that is responsible for
adjusting the waiting time of an agent to receive messages from other agents
such that the uncertainty associated with delay can be addressed. Our
experiments reveal that DACOM has a non-negligible performance improvement over
other mechanisms by making a better trade-off between the benefits of
communication and the costs of waiting for messages.
- Abstract(参考訳): 協調型マルチエージェント強化学習(marl)では,コミュニケーションがマルチエージェント協調と全体的なパフォーマンスを改善することが期待されている。
しかし、既存の通信方式は通信のオーバーヘッド(例えば通信遅延)を無視しているため、こうした改善は一般的に制限されている。
本稿では,コミュニケーション遅延の無視がコラボレーション,特に自動運転などの遅延に敏感なタスクに悪影響を及ぼすことを実証する。
この影響を軽減するために,遅延対応マルチエージェント通信モデル(DACOM)を設計し,遅延に適応する。
具体的には、DACOMがTimeNetというコンポーネントを導入し、遅延に関連する不確実性に対処できるように、他のエージェントからメッセージを受け取るエージェントの待ち時間を調整する。
実験の結果,DACOMは通信の利点とメッセージ待ちコストとのトレードオフを良好にすることで,他のメカニズムよりも非無視的な性能向上を実現していることがわかった。
関連論文リスト
- AC2C: Adaptively Controlled Two-Hop Communication for Multi-Agent
Reinforcement Learning [4.884877440051105]
本稿では,AC2C(Adaptive Controlled Two-Hop Communication)と呼ばれる新しい通信プロトコルを提案する。
AC2Cは、エージェント間の長距離情報交換によるパフォーマンス向上を可能にするために、適応的な2ホップ通信戦略を採用している。
本稿では,3つの協調型マルチエージェントタスクにおけるAC2Cの評価を行った。
論文 参考訳(メタデータ) (2023-02-24T09:00:34Z) - Scalable Communication for Multi-Agent Reinforcement Learning via
Transformer-Based Email Mechanism [9.607941773452925]
コミュニケーションはマルチエージェント強化学習(MARL)における協調性を著しく向上させる
本稿では,部分的に観測されたタスクに対するMARL通信のスケーラビリティ問題に対処するための新しいフレームワークである Transformer-based Email Mechanism (TEM) を提案する。
論文 参考訳(メタデータ) (2023-01-05T05:34:30Z) - Over-communicate no more: Situated RL agents learn concise communication
protocols [78.28898217947467]
互いに効果的に効率的にコミュニケーションできる人工エージェントをいかに設計するかは、不明である。
強化学習(RL)を用いたコミュニケーションの出現に関する研究
エージェントがコミュニケーションを行うための環境行為を強制しなければならない多段階タスクにおける位置的コミュニケーションについて検討する。
テストされたすべてのプレッシャーは過剰なコミュニケーションを阻害する可能性があるが、位置通信は最も効果的であり、努力のコストとは異なり、発生に悪影響を及ぼさない。
論文 参考訳(メタデータ) (2022-11-02T21:08:14Z) - Coordinating Policies Among Multiple Agents via an Intelligent
Communication Channel [81.39444892747512]
MARL(Multi-Agent Reinforcement Learning)では、エージェントが直接通信できる特別なチャンネルがしばしば導入される。
本稿では,エージェントの集団的性能を向上させるために,エージェントが提供した信号の伝達と解釈を学習する,インテリジェントなファシリテータを通じてエージェントがコミュニケーションする手法を提案する。
論文 参考訳(メタデータ) (2022-05-21T14:11:33Z) - Communication-Efficient Split Learning Based on Analog Communication and
Over the Air Aggregation [48.150466900765316]
スプリットラーニング(SL)は、その固有のプライバシー保護機能と、限られた計算能力を持つデバイスに対する協調推論を可能にする能力により、最近人気を集めている。
標準SLアルゴリズムは、理想的なデジタル通信システムを想定し、通信帯域不足の問題を無視している。
本稿では,エージェント側で追加層を導入し,重みとバイアスの選択を制約し,空気の凝集を確実にするための新しいSLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-02T07:49:41Z) - Adversarial Attacks On Multi-Agent Communication [80.4392160849506]
現代の自律システムはすぐに大規模に展開され、協調型マルチエージェントシステムの可能性を広げる。
このような利点は、セキュリティ侵害に対して脆弱であることが示されている通信チャネルに大きく依存している。
本稿では,エージェントが学習した中間表現を共有してコミュニケーションする新しいマルチエージェント環境において,このような攻撃を探索する。
論文 参考訳(メタデータ) (2021-01-17T00:35:26Z) - Learning to Communicate and Correct Pose Errors [75.03747122616605]
本稿では、V2VNetで提案された設定について検討し、近くにある自動運転車が共同で物体検出と動き予測を協調的に行う方法を提案する。
本稿では,コミュニケーションを学習し,潜在的な誤りを推定し,それらの誤りについてコンセンサスを得るための新しいニューラルネットワーク推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-10T18:19:40Z) - Succinct and Robust Multi-Agent Communication With Temporal Message
Control [17.55163940659976]
既存の通信方式では、エージェントは実行時に過剰な数のメッセージを交換する必要がある。
簡潔でロバストなコミュニケーションを実現するためのシンプルなアプローチであるtextitTemporal Message Control (TMC) を提案する。
論文 参考訳(メタデータ) (2020-10-27T15:55:08Z) - Learning Individually Inferred Communication for Multi-Agent Cooperation [37.56115000150748]
我々はエージェントエージェントがエージェントエージェントコミュニケーションの事前学習を可能にするために、個別推論通信(I2C)を提案する。
先行知識は因果推論によって学習され、フィードフォワードニューラルネットワークによって実現される。
I2Cは通信オーバーヘッドを減らすだけでなく、様々なマルチエージェント協調シナリオのパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2020-06-11T14:07:57Z) - Delay-Aware Multi-Agent Reinforcement Learning for Cooperative and
Competitive Environments [23.301322095357808]
アクションと観察の遅延は、現実世界のサイバー物理システムに多く存在する。
本稿では,遅延に対処する新しいフレームワークと,マルチエージェントタスクの非定常トレーニング問題を提案する。
実験は, 協調コミュニケーション, 協調ナビゲーション, 競争実験を含む多エージェント粒子環境下で実施される。
論文 参考訳(メタデータ) (2020-05-11T21:21:50Z) - On Emergent Communication in Competitive Multi-Agent Teams [116.95067289206919]
外部のエージェントチームによるパフォーマンスの競争が社会的影響として作用するかどうかを検討する。
以上の結果から,外部競争の影響により精度と一般化が向上し,コミュニケーション言語が急速に出現することが示唆された。
論文 参考訳(メタデータ) (2020-03-04T01:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。