論文の概要: ClusterComm: Discrete Communication in Decentralized MARL using Internal
Representation Clustering
- arxiv url: http://arxiv.org/abs/2401.03504v1
- Date: Sun, 7 Jan 2024 14:53:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 18:39:31.364661
- Title: ClusterComm: Discrete Communication in Decentralized MARL using Internal
Representation Clustering
- Title(参考訳): ClusterComm: 内部表現クラスタリングを用いた分散MARLにおける離散通信
- Authors: Robert M\"uller, Hasan Turalic, Thomy Phan, Michael K\"olle, Jonas
N\"u{\ss}lein, Claudia Linnhoff-Popien
- Abstract要約: ClusterCommは、エージェントが中央制御ユニットなしで個別に通信する、完全に分散化されたMARLフレームワークである。
エージェントのポリシネットワークのアクティベーションを最後に隠されたレイヤにクラスタリングするMini-Batch-K-Meansは、それらを個別のメッセージに変換する。
- 参考スコア(独自算出の注目度): 6.839032445412096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the realm of Multi-Agent Reinforcement Learning (MARL), prevailing
approaches exhibit shortcomings in aligning with human learning, robustness,
and scalability. Addressing this, we introduce ClusterComm, a fully
decentralized MARL framework where agents communicate discretely without a
central control unit. ClusterComm utilizes Mini-Batch-K-Means clustering on the
last hidden layer's activations of an agent's policy network, translating them
into discrete messages. This approach outperforms no communication and competes
favorably with unbounded, continuous communication and hence poses a simple yet
effective strategy for enhancing collaborative task-solving in MARL.
- Abstract(参考訳): MARL(Multi-Agent Reinforcement Learning)の領域では、一般的なアプローチは、人間の学習、堅牢性、スケーラビリティと整合する際の欠点を示す。
そこで我々は,エージェントが中央制御ユニットを使わずに離散的に通信する,完全に分散したmarlフレームワークであるclustercommを紹介する。
ClusterCommは、エージェントのポリシネットワークのアクティベーションを最後に隠されたレイヤ上で、Mini-Batch-K-Meansクラスタリングを使用して、それらを個別のメッセージに変換する。
このアプローチはコミュニケーションに優れず、無制限で継続的なコミュニケーションと有利に競い合うため、marlにおける協調的なタスク解決を強化するためのシンプルで効果的な戦略となる。
関連論文リスト
- Context-aware Communication for Multi-agent Reinforcement Learning [6.109127175562235]
マルチエージェント強化学習(MARL)のための文脈認識型コミュニケーション手法を開発した。
第1段階では、エージェントは放送方式で粗い表現を交換し、第2段階のコンテキストを提供する。
その後、エージェントは第2段階の注意機構を利用し、受信機用にパーソナライズされたメッセージを選択的に生成する。
CACOMの有効性を評価するため,アクタ批判型と値に基づくMARLアルゴリズムを併用する。
論文 参考訳(メタデータ) (2023-12-25T03:33:08Z) - Multi-Agent Reinforcement Learning Based on Representational
Communication for Large-Scale Traffic Signal Control [13.844458247041711]
交通信号制御(TSC)は、インテリジェント交通システムにおいて難しい問題である。
大規模TSCのための通信ベースのMARLフレームワークを提案する。
私たちのフレームワークでは、各エージェントがメッセージのどの部分を誰に"送信"するかを指示する通信ポリシーを学習することができます。
論文 参考訳(メタデータ) (2023-10-03T21:06:51Z) - Centralized Training with Hybrid Execution in Multi-Agent Reinforcement
Learning [7.163485179361718]
マルチエージェント強化学習(MARL)におけるハイブリッド実行の導入
MARLは、エージェントが任意の通信レベルを持つ協調タスクを実行時に完了させることを目標とする新しいパラダイムである。
我々は,自動回帰予測モデルを用いたMAROを集中的に訓練し,行方不明者の観察を推定する手法を提案する。
論文 参考訳(メタデータ) (2022-10-12T14:58:32Z) - Scalable Multi-Agent Model-Based Reinforcement Learning [1.95804735329484]
我々は,モデルベース強化学習(MBRL)を用いて協調環境における集中型トレーニングをさらに活用するMAMBAという新しい手法を提案する。
エージェント間のコミュニケーションは、実行期間中に各エージェントのワールドモデルを維持するのに十分であり、一方、仮想ロールアウトはトレーニングに使用でき、環境と対話する必要がなくなる。
論文 参考訳(メタデータ) (2022-05-25T08:35:00Z) - Coordinating Policies Among Multiple Agents via an Intelligent
Communication Channel [81.39444892747512]
MARL(Multi-Agent Reinforcement Learning)では、エージェントが直接通信できる特別なチャンネルがしばしば導入される。
本稿では,エージェントの集団的性能を向上させるために,エージェントが提供した信号の伝達と解釈を学習する,インテリジェントなファシリテータを通じてエージェントがコミュニケーションする手法を提案する。
論文 参考訳(メタデータ) (2022-05-21T14:11:33Z) - Cooperative Multi-Agent Actor-Critic for Privacy-Preserving Load
Scheduling in a Residential Microgrid [71.17179010567123]
本稿では,分散型アクターを分散批評家に教育する,プライバシ保護型マルチエージェントアクター批判フレームワークを提案する。
提案手法は,家庭のプライバシを保護しつつ,暗黙的にマルチエージェントの信用代入メカニズムを学習する。
論文 参考訳(メタデータ) (2021-10-06T14:05:26Z) - Communication Efficient Distributed Learning with Censored, Quantized,
and Generalized Group ADMM [52.12831959365598]
本稿では,相互接続作業者のネットワーク上で定義されたコンセンサス最適化問題を解決するための,コミュニケーション効率のよい分散機械学習フレームワークを提案する。
提案アルゴリズムであるCensored and Quantized Generalized GADMMは、GADMM(Group Alternating Direction Method of Multipliers)の労働者グループ化と分散学習のアイデアを活用する。
CQ-GGADMMは通信ラウンド数で高い通信効率を示し、精度と収束速度を損なうことなくエネルギー消費を伝達する。
論文 参考訳(メタデータ) (2020-09-14T14:18:19Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - Multi-agent Reinforcement Learning for Networked System Control [6.89105475513757]
本稿では,ネットワークシステム制御におけるマルチエージェント強化学習(MARL)について考察する。
我々は,NMARLにおける情報損失と非定常性を低減するため,NeurCommと呼ばれる新しい通信プロトコルを提案する。
NeurCommは学習効率と制御性能の両方で既存の通信プロトコルより優れている。
論文 参考訳(メタデータ) (2020-04-03T02:21:07Z) - Monotonic Value Function Factorisation for Deep Multi-Agent
Reinforcement Learning [55.20040781688844]
QMIXは、中央集権的なエンドツーエンドで分散ポリシーをトレーニングできる新しい価値ベースの手法である。
深層多エージェント強化学習のための新しいベンチマークとして,StarCraft Multi-Agent Challenge (SMAC)を提案する。
論文 参考訳(メタデータ) (2020-03-19T16:51:51Z) - Learning Structured Communication for Multi-agent Reinforcement Learning [104.64584573546524]
本研究では,マルチエージェント強化学習(MARL)環境下での大規模マルチエージェント通信機構について検討する。
本稿では、より柔軟で効率的な通信トポロジを用いて、LSC(Learning Structured Communication)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-11T07:19:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。