論文の概要: Promoting Cooperation in Multi-Agent Reinforcement Learning via Mutual
Help
- arxiv url: http://arxiv.org/abs/2302.09277v1
- Date: Sat, 18 Feb 2023 10:07:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 19:33:42.437771
- Title: Promoting Cooperation in Multi-Agent Reinforcement Learning via Mutual
Help
- Title(参考訳): 相互支援によるマルチエージェント強化学習における協調の促進
- Authors: Yunbo Qiu, Yue Jin, Lebin Yu, Jian Wang, Xudong Zhang
- Abstract要約: 近年,多エージェント強化学習(MARL)は協調作業において大きな進歩を遂げている。
協調作業においては、エージェントの相互影響は特に重要である。
本稿では,MH-MARL(Mutual-Help-based MARL)アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 6.398557794102739
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-agent reinforcement learning (MARL) has achieved great progress in
cooperative tasks in recent years. However, in the local reward scheme, where
only local rewards for each agent are given without global rewards shared by
all the agents, traditional MARL algorithms lack sufficient consideration of
agents' mutual influence. In cooperative tasks, agents' mutual influence is
especially important since agents are supposed to coordinate to achieve better
performance. In this paper, we propose a novel algorithm Mutual-Help-based MARL
(MH-MARL) to instruct agents to help each other in order to promote
cooperation. MH-MARL utilizes an expected action module to generate expected
other agents' actions for each particular agent. Then, the expected actions are
delivered to other agents for selective imitation during training. Experimental
results show that MH-MARL improves the performance of MARL both in success rate
and cumulative reward.
- Abstract(参考訳): 近年,多エージェント強化学習(MARL)は協調作業において大きな進歩を遂げている。
しかし、すべてのエージェントが共有するグローバル報酬なしで各エージェントに対するローカル報酬しか与えられないローカル報酬方式では、従来のMARLアルゴリズムはエージェントの相互影響を十分に考慮していない。
協調作業においては、エージェントの相互影響は特に重要である。
本稿では,協調を促進するために,エージェント同士が助け合うよう指示するアルゴリズムである相互支援型marl(mh-marl)を提案する。
MH-MARLは期待されるアクションモジュールを使用して、特定のエージェントごとに期待される他のエージェントのアクションを生成する。
そして、トレーニング中の選択的模倣のために、期待されたアクションを他のエージェントに配信する。
実験の結果,MH-MARLは成功率と累積報酬の両方でMARLの性能を向上させることが示された。
関連論文リスト
- Cooperative Reward Shaping for Multi-Agent Pathfinding [4.244426154524592]
MAPF(Multi-Agent Pathfinding)の主な目的は、全てのエージェントに対して効率的で競合のないパスを計画することである。
従来のマルチエージェントパス計画アルゴリズムは、複数のエージェントに対して効率的な分散パス計画を実現するのに苦労する。
独立Q-Learning(IQL)に基づく独自の報酬形成手法を紹介する。
論文 参考訳(メタデータ) (2024-07-15T02:44:41Z) - Beyond Joint Demonstrations: Personalized Expert Guidance for Efficient Multi-Agent Reinforcement Learning [54.40927310957792]
異種チーム内の各エージェントを個別にカスタマイズした、個人化された専門家によるデモンストレーションという新しい概念を導入する。
これらのデモンストレーションは、単独エージェントの行動と、各エージェントが協調的な要素を含まない個人的目標を達成する方法にのみ関係している。
本稿では、個人化された専門家によるデモンストレーションをガイダンスとして選択的に活用し、エージェントが協力することを学ぶためのアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-13T20:11:20Z) - Multi-Agent Reinforcement Learning with a Hierarchy of Reward Machines [5.600971575680638]
Reward Machines (RMs) を用いた協調型マルチエージェント強化学習(MARL)問題の検討
より複雑なシナリオを扱えるRM(MAHRM)階層のマルチエージェント強化学習を提案する。
3つの協調MARLドメインの実験結果から、MAHRMは、他のMARLメソッドよりも高いレベルの事象の事前知識の方が優れていることが示された。
論文 参考訳(メタデータ) (2024-03-08T06:38:22Z) - Situation-Dependent Causal Influence-Based Cooperative Multi-agent
Reinforcement Learning [18.054709749075194]
我々は、状況依存因果関係に基づく協調マルチエージェント強化学習(SCIC)という新しいMARLアルゴリズムを提案する。
本研究の目的は,特定の状況におけるエージェント間因果関係の影響を,因果介入と条件付き相互情報を用いて検出することである。
結果として得られたアップデートは、協調した探索と本質的な報酬分布をリンクし、全体的なコラボレーションとパフォーマンスを高めた。
論文 参考訳(メタデータ) (2023-12-15T05:09:32Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Learning Reward Machines in Cooperative Multi-Agent Tasks [75.79805204646428]
本稿では,MARL(Multi-Agent Reinforcement Learning)に対する新しいアプローチを提案する。
これは、協調的なタスク分解と、サブタスクの構造をコードする報酬機(RM)の学習を組み合わせる。
提案手法は、部分的に観測可能な環境下での報酬の非マルコフ的性質に対処するのに役立つ。
論文 参考訳(メタデータ) (2023-03-24T15:12:28Z) - Celebrating Diversity in Shared Multi-Agent Reinforcement Learning [20.901606233349177]
深層多エージェント強化学習は、複雑な協調的な課題を解決することを約束している。
本稿では,共有型マルチエージェント強化学習の最適化と表現に多様性を導入することを目的とする。
提案手法は,Google Research Footballと超硬度StarCraft IIマイクロマネジメントタスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-06-04T00:55:03Z) - UneVEn: Universal Value Exploration for Multi-Agent Reinforcement
Learning [53.73686229912562]
我々はUniversal Value Exploration(UneVEn)と呼ばれる新しいMARLアプローチを提案する。
UneVEnは、一連の関連するタスクと、普遍的な後継機能の線形分解を同時に学習する。
一連の探索ゲームにおける実証的な結果、エージェント間の重要な調整を必要とする協調捕食・捕食作業への挑戦、およびStarCraft IIのマイクロマネジメントベンチマークは、UneVEnが他の最先端のMARLメソッドが失敗するタスクを解決できることを示している。
論文 参考訳(メタデータ) (2020-10-06T19:08:47Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z) - Scalable Multi-Agent Inverse Reinforcement Learning via
Actor-Attention-Critic [54.2180984002807]
マルチエージェント逆逆強化学習 (MA-AIRL) は, 単エージェントAIRLをマルチエージェント問題に適用する最近の手法である。
本稿では,従来の手法よりもサンプル効率が高く,スケーラブルなマルチエージェント逆RLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-24T20:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。