論文の概要: Promoting Resilience in Multi-Agent Reinforcement Learning via
Confusion-Based Communication
- arxiv url: http://arxiv.org/abs/2111.06614v1
- Date: Fri, 12 Nov 2021 09:03:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-15 20:59:55.672312
- Title: Promoting Resilience in Multi-Agent Reinforcement Learning via
Confusion-Based Communication
- Title(参考訳): 融合型コミュニケーションによる多エージェント強化学習におけるレジリエンスの促進
- Authors: Ofir Abu, Matthias Gerstgrasser, Jeffrey Rosenschein and Sarah Keren
- Abstract要約: 効果的に協力するグループの能力とグループのレジリエンスとの関係を強調した。
レジリエンスを促進するために,新しい混乱型通信プロトコルによる協調の促進を提案する。
各種のMARL設定において,提案手法の実証評価を行った。
- 参考スコア(独自算出の注目度): 5.367993194110255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in multi-agent reinforcement learning (MARL) provide a
variety of tools that support the ability of agents to adapt to unexpected
changes in their environment, and to operate successfully given their
environment's dynamic nature (which may be intensified by the presence of other
agents). In this work, we highlight the relationship between a group's ability
to collaborate effectively and the group's resilience, which we measure as the
group's ability to adapt to perturbations in the environment. To promote
resilience, we suggest facilitating collaboration via a novel confusion-based
communication protocol according to which agents broadcast observations that
are misaligned with their previous experiences. We allow decisions regarding
the width and frequency of messages to be learned autonomously by agents, which
are incentivized to reduce confusion. We present empirical evaluation of our
approach in a variety of MARL settings.
- Abstract(参考訳): マルチエージェント強化学習(MARL)の最近の進歩は、エージェントが環境の予期せぬ変化に適応し、環境のダイナミックな性質(他のエージェントの存在によって強化される可能性がある)を考慮し、正常に動作するための様々なツールを提供する。
本研究は,協調するグループの能力と,環境の摂動に適応する集団の能力として評価するグループのレジリエンスとの関係を強調する。
レジリエンスを促進するために,エージェントが過去の経験とミスマッチした観察を放送する,新たな混乱に基づくコミュニケーションプロトコルによるコラボレーションの促進を提案する。
我々は、メッセージの幅と頻度に関する決定をエージェントによって自律的に学習することを許可し、混乱を減らすためにインセンティブを与える。
各種のMARL設定において,提案手法の実証評価を行った。
関連論文リスト
- From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Situation-Dependent Causal Influence-Based Cooperative Multi-agent
Reinforcement Learning [18.054709749075194]
我々は、状況依存因果関係に基づく協調マルチエージェント強化学習(SCIC)という新しいMARLアルゴリズムを提案する。
本研究の目的は,特定の状況におけるエージェント間因果関係の影響を,因果介入と条件付き相互情報を用いて検出することである。
結果として得られたアップデートは、協調した探索と本質的な報酬分布をリンクし、全体的なコラボレーションとパフォーマンスを高めた。
論文 参考訳(メタデータ) (2023-12-15T05:09:32Z) - Quantifying Agent Interaction in Multi-agent Reinforcement Learning for
Cost-efficient Generalization [63.554226552130054]
マルチエージェント強化学習(MARL)における一般化の課題
エージェントが未確認のコプレイヤーに影響される程度は、エージェントのポリシーと特定のシナリオに依存する。
与えられたシナリオと環境におけるエージェント間の相互作用強度を定量化する指標であるLoI(Level of Influence)を提示する。
論文 参考訳(メタデータ) (2023-10-11T06:09:26Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Centralized Training with Hybrid Execution in Multi-Agent Reinforcement
Learning [7.163485179361718]
マルチエージェント強化学習(MARL)におけるハイブリッド実行の導入
MARLは、エージェントが任意の通信レベルを持つ協調タスクを実行時に完了させることを目標とする新しいパラダイムである。
我々は,自動回帰予測モデルを用いたMAROを集中的に訓練し,行方不明者の観察を推定する手法を提案する。
論文 参考訳(メタデータ) (2022-10-12T14:58:32Z) - Coordinating Policies Among Multiple Agents via an Intelligent
Communication Channel [81.39444892747512]
MARL(Multi-Agent Reinforcement Learning)では、エージェントが直接通信できる特別なチャンネルがしばしば導入される。
本稿では,エージェントの集団的性能を向上させるために,エージェントが提供した信号の伝達と解釈を学習する,インテリジェントなファシリテータを通じてエージェントがコミュニケーションする手法を提案する。
論文 参考訳(メタデータ) (2022-05-21T14:11:33Z) - Reliably Re-Acting to Partner's Actions with the Social Intrinsic
Motivation of Transfer Empowerment [40.24079015603578]
協調コミュニケーションと協調作業のためのマルチエージェント強化学習(MARL)を検討する。
MARLエージェントは、トレーニングパートナーのポリシーに過度に適合できるため、脆くすることができる。
我々の目標は、学習プロセスのバイアスを、他のエージェントの行動に対する反応性のある戦略を見つけることです。
論文 参考訳(メタデータ) (2022-03-07T13:03:35Z) - Depthwise Convolution for Multi-Agent Communication with Enhanced
Mean-Field Approximation [9.854975702211165]
本稿では,MARL(Multi-agent RL)課題に取り組むための,局所的なコミュニケーション学習に基づく新しい手法を提案する。
まず,局所的な関係を効率的に抽出する深層的畳み込み機能を利用する新しい通信プロトコルを設計する。
第2に,エージェント相互作用の規模を減らすために,平均場近似を導入する。
論文 参考訳(メタデータ) (2022-03-06T07:42:43Z) - Provably Efficient Cooperative Multi-Agent Reinforcement Learning with
Function Approximation [15.411902255359074]
定常的な通信予算を一定に保っても,ほぼ最適に学習できることを示す。
私たちの仕事は、マルチエージェントコンテキストとマルチアームバンディット文学からMDP、強化学習まで、いくつかのアイデアを一般化します。
論文 参考訳(メタデータ) (2021-03-08T18:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。