論文の概要: Policy Diagnosis via Measuring Role Diversity in Cooperative Multi-agent
RL
- arxiv url: http://arxiv.org/abs/2207.05683v1
- Date: Wed, 1 Jun 2022 04:58:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-11 01:06:38.006999
- Title: Policy Diagnosis via Measuring Role Diversity in Cooperative Multi-agent
RL
- Title(参考訳): 協調型マルチエージェントRLにおける役割多様性測定による政策診断
- Authors: Siyi Hu, Chuanlong Xie, Xiaodan Liang, Xiaojun Chang
- Abstract要約: 我々はエージェントの行動差を定量化し、bfロールの多様性を通して政策パフォーマンスとの関係を構築する
MARLの誤差は, 役割多様性と強い関係を持つ3つの部分に分けられる。
分解された要因は3つの一般的な方向における政策最適化に大きな影響を及ぼす可能性がある。
- 参考スコア(独自算出の注目度): 107.58821842920393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cooperative multi-agent reinforcement learning (MARL) is making rapid
progress for solving tasks in a grid world and real-world scenarios, in which
agents are given different attributes and goals, resulting in different
behavior through the whole multi-agent task. In this study, we quantify the
agent's behavior difference and build its relationship with the policy
performance via {\bf Role Diversity}, a metric to measure the characteristics
of MARL tasks. We define role diversity from three perspectives: action-based,
trajectory-based, and contribution-based to fully measure a multi-agent task.
Through theoretical analysis, we find that the error bound in MARL can be
decomposed into three parts that have a strong relation to the role diversity.
The decomposed factors can significantly impact policy optimization on three
popular directions including parameter sharing, communication mechanism, and
credit assignment. The main experimental platforms are based on {\bf Multiagent
Particle Environment (MPE)} and {\bf The StarCraft Multi-Agent Challenge
(SMAC). Extensive experiments} clearly show that role diversity can serve as a
robust measurement for the characteristics of a multi-agent cooperation task
and help diagnose whether the policy fits the current multi-agent system for a
better policy performance.
- Abstract(参考訳): 協調型マルチエージェント強化学習(MARL)は、グリッドの世界と現実のシナリオにおいて、エージェントが異なる属性と目標を与えられ、その結果、マルチエージェントのタスク全体を通して異なる振る舞いをもたらす。
本研究では、エージェントの行動差を定量化し、MARLタスクの特性を測定する指標である {\bf Role Diversity} を通じて、政策パフォーマンスとの関係を構築する。
マルチエージェントタスクを完全に測定するために,アクションベース,軌道ベース,コントリビューションベースという3つの視点から役割多様性を定義する。
理論的解析により, marl における誤差は, 役割多様性と強い関係を持つ 3 つの部分に分解できることがわかった。
分解された要因は、パラメータ共有、通信機構、信用割当を含む3つの一般的な方向の政策最適化に大きな影響を及ぼす可能性がある。
主な実験プラットフォームは、 {\bf Multi-Agent Particle Environment (MPE) と {\bf The StarCraft Multi-Agent Challenge (SMAC) に基づいている。
広汎な実験は、役割多様性が多エージェント協調作業の特徴の堅牢な測定に役立ち、政策が現在のマルチエージェントシステムに適合するかどうかの診断に役立つことを明らかに示している。
関連論文リスト
- Controlling Behavioral Diversity in Multi-Agent Reinforcement Learning [8.905920197601173]
本研究では,ある指標の正確な値に対する多様性を制御できるダイバーシティ制御(DiCo)を導入する。
マルチエージェント強化学習における性能向上とサンプル効率向上のための新しいパラダイムとしてDiCoを用いる方法を示す。
論文 参考訳(メタデータ) (2024-05-23T21:03:33Z) - Measuring Policy Distance for Multi-Agent Reinforcement Learning [9.80588687020087]
マルチエージェント強化学習(MARL)における政策差を測定するための多エージェント政策距離(MAPD)を提案する。
エージェントの判断の条件表現を学習することで、PDはエージェント間のポリシー距離を計算することができる。
また、MAPDをカスタマイズ可能なバージョンに拡張し、特定の側面におけるエージェントポリシーの違いを定量化します。
論文 参考訳(メタデータ) (2024-01-20T15:34:51Z) - Quantifying Agent Interaction in Multi-agent Reinforcement Learning for
Cost-efficient Generalization [63.554226552130054]
マルチエージェント強化学習(MARL)における一般化の課題
エージェントが未確認のコプレイヤーに影響される程度は、エージェントのポリシーと特定のシナリオに依存する。
与えられたシナリオと環境におけるエージェント間の相互作用強度を定量化する指標であるLoI(Level of Influence)を提示する。
論文 参考訳(メタデータ) (2023-10-11T06:09:26Z) - Learning Reward Machines in Cooperative Multi-Agent Tasks [75.79805204646428]
本稿では,MARL(Multi-Agent Reinforcement Learning)に対する新しいアプローチを提案する。
これは、協調的なタスク分解と、サブタスクの構造をコードする報酬機(RM)の学習を組み合わせる。
提案手法は、部分的に観測可能な環境下での報酬の非マルコフ的性質に対処するのに役立つ。
論文 参考訳(メタデータ) (2023-03-24T15:12:28Z) - A Variational Approach to Mutual Information-Based Coordination for
Multi-Agent Reinforcement Learning [17.893310647034188]
マルチエージェント強化学習のための新しい相互情報フレームワークを提案する。
導出された下界を最大化するためにポリシーを適用することで,多エージェントアクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクタ-アクティベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-01T12:21:30Z) - Learning From Good Trajectories in Offline Multi-Agent Reinforcement
Learning [98.07495732562654]
オフラインマルチエージェント強化学習(MARL)は、事前コンパイルされたデータセットから効果的なマルチエージェントポリシーを学ぶことを目的としている。
オフラインのMARLが学んだエージェントは、しばしばこのランダムなポリシーを継承し、チーム全体のパフォーマンスを脅かす。
この問題に対処するために,共有個人軌道(SIT)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-28T18:11:26Z) - LDSA: Learning Dynamic Subtask Assignment in Cooperative Multi-Agent
Reinforcement Learning [122.47938710284784]
協調型MARLにおける動的サブタスク代入(LDSA)を学習するための新しいフレームワークを提案する。
エージェントを異なるサブタスクに合理的に割り当てるために,能力に基づくサブタスク選択戦略を提案する。
LDSAは、より優れたコラボレーションのために、合理的で効果的なサブタスクの割り当てを学習していることを示す。
論文 参考訳(メタデータ) (2022-05-05T10:46:16Z) - Toward Policy Explanations for Multi-Agent Reinforcement Learning [18.33682005623418]
MARLのための2種類のポリシー記述を生成するための新しい手法を提案する。
3つのMARL領域の実験結果から,提案手法のスケーラビリティが実証された。
ユーザスタディでは、生成された説明がユーザパフォーマンスを著しく改善し、ユーザ満足度などの指標に対する主観的評価が向上することを示した。
論文 参考訳(メタデータ) (2022-04-26T20:07:08Z) - Celebrating Diversity in Shared Multi-Agent Reinforcement Learning [20.901606233349177]
深層多エージェント強化学習は、複雑な協調的な課題を解決することを約束している。
本稿では,共有型マルチエージェント強化学習の最適化と表現に多様性を導入することを目的とする。
提案手法は,Google Research Footballと超硬度StarCraft IIマイクロマネジメントタスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-06-04T00:55:03Z) - FACMAC: Factored Multi-Agent Centralised Policy Gradients [103.30380537282517]
FACtored Multi-Agent Centralized Policy gradients (FACMAC)を提案する。
離散的および連続的な行動空間における協調的マルチエージェント強化学習のための新しい手法である。
我々は,マルチエージェント粒子環境の変動に対するFACMAC,新しいマルチエージェント MuJoCo ベンチマーク,およびStarCraft II マイクロマネジメントタスクの挑戦的セットについて評価した。
論文 参考訳(メタデータ) (2020-03-14T21:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。