論文の概要: Heterogeneous Multi-agent Zero-Shot Coordination by Coevolution
- arxiv url: http://arxiv.org/abs/2208.04957v1
- Date: Tue, 9 Aug 2022 16:16:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-11 12:26:53.311243
- Title: Heterogeneous Multi-agent Zero-Shot Coordination by Coevolution
- Title(参考訳): 共進化による不均一なマルチエージェントゼロショット協調
- Authors: Ke Xue, Yutong Wang, Lei Yuan, Cong Guan, Chao Qian, Yang Yu
- Abstract要約: 異種ゼロショットコーディネート問題を初めて検討した。
本稿では,3つのサブプロセスを通じてエージェントとパートナーの2つの集団を共進化させる,共進化に基づく一般的な手法を提案する。
共同調理作業における実験結果から不均一な設定を考える必要性が示された。
- 参考スコア(独自算出の注目度): 26.80354653542048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating agents that can achieve Zero-Shot Coordination (ZSC) with unseen
partners is a new challenge in cooperative Multi-Agent Reinforcement Learning
(MARL). Recently, some studies have made progress in ZSC by exposing the agents
to diverse partners during the training process. They usually involve self-play
when training the partners, implicitly assuming that the tasks are homogeneous.
However, many real-world tasks are heterogeneous, and hence previous methods
may fail. In this paper, we study the heterogeneous ZSC problem for the first
time and propose a general method based on coevolution, which coevolves two
populations of agents and partners through three sub-processes: pairing,
updating and selection. Experimental results on a collaborative cooking task
show the necessity of considering the heterogeneous setting and illustrate that
our proposed method is a promising solution for heterogeneous cooperative MARL.
- Abstract(参考訳): ゼロショット協調(zsc)を実現するエージェントの生成は,協調型マルチエージェント強化学習(marl)における新たな課題である。
近年、ZSCにおいて、トレーニングプロセス中に多様なパートナーにエージェントを露出させることにより、いくつかの研究が進展している。
彼らは通常、パートナーを訓練する際に自己プレイを伴い、タスクが均質であると暗黙的に仮定する。
しかし、多くの実世界のタスクは不均一であり、従って以前の手法は失敗する可能性がある。
本稿では, 異種ZSC問題を初めて検討し, 3つのサブプロセス(ペアリング, 更新, 選択)を通じてエージェントとパートナーの2つの集団を共進化させる, 共進化に基づく一般的な手法を提案する。
共同調理作業における実験結果から,不均一な設定を考える必要性が示され,提案手法が異種協調型MARLに有望な解であることを示す。
関連論文リスト
- QTypeMix: Enhancing Multi-Agent Cooperative Strategies through Heterogeneous and Homogeneous Value Decomposition [11.170571181947274]
そこで我々はQTypeMixを提案する。これは値分解過程を均質および不均一な段階に分割する。
提案手法をSMACとSMACv2の14の地図上で検証した結果,QTypeMixは様々な課題において,最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-08-12T12:27:58Z) - Prioritized League Reinforcement Learning for Large-Scale Heterogeneous Multiagent Systems [11.017749510087059]
本稿では,大規模な異種協調問題に対処する優先的不均一リーグ強化学習(PHLRL)手法を提案する。
We use Unreal Engine to design a Large-scale Multiagent Operation (LSMO)。
論文 参考訳(メタデータ) (2024-03-26T19:21:50Z) - An Extensible Framework for Open Heterogeneous Collaborative Perception [58.70875361688463]
協調的な知覚は、単一エージェントの知覚の限界を緩和することを目的としている。
本稿では,新しい異種エージェントを協調認識に適応させる方法を提案する。
本稿では,新しい協調認識フレームワークであるHeterogeneous ALliance(HEAL)を提案する。
論文 参考訳(メタデータ) (2024-01-25T05:55:03Z) - Towards Few-shot Coordination: Revisiting Ad-hoc Teamplay Challenge In
the Game of Hanabi [15.917861586043813]
現状のZSCアルゴリズムは、異なる学習手法で訓練されたエージェントとペアリングした場合、性能が劣っていることを示す。
我々は,MARL手法の適応性を評価するために,ハナビと呼ばれる人気のある協調型マルチエージェントゲームに基づくフレームワークを構築した。
論文 参考訳(メタデータ) (2023-08-20T14:44:50Z) - Heterogeneous Embodied Multi-Agent Collaboration [21.364827833498254]
不均一なマルチエージェントタスクは現実世界のシナリオでは一般的である。
本稿では,複数の異種エージェントが協調して異種物体を検出し,適切な位置に配置する異種マルチエージェント・タイピング・アップタスクを提案する。
本稿では, 乱れ検出に基づく階層的決定モデル, 合理的な受容器予測, およびハンドシェイクに基づくグループ通信機構を提案する。
論文 参考訳(メタデータ) (2023-07-26T04:33:05Z) - Adaptive Coordination in Social Embodied Rearrangement [49.35582108902819]
本研究では,エージェントが新しいパートナーと協力し,ロボットが新しいパートナーと協力するシナリオをエミュレートする作業において,ゼロショットコーディネート(ZSC)を研究する。
本稿では,識別可能性の目的を通じて多様性を促進する新しいZSCアプローチである行動多様性プレイ(BDP)を提案する。
以上の結果から,BDPは視覚的コーディネーションに対処可能な適応エージェントを学習し,ゼロショットは未確認環境において新たなパートナーに一般化し,ベースラインに比べて35%,効率が32%向上した。
論文 参考訳(メタデータ) (2023-05-31T18:05:51Z) - Learning Reward Machines in Cooperative Multi-Agent Tasks [75.79805204646428]
本稿では,MARL(Multi-Agent Reinforcement Learning)に対する新しいアプローチを提案する。
これは、協調的なタスク分解と、サブタスクの構造をコードする報酬機(RM)の学習を組み合わせる。
提案手法は、部分的に観測可能な環境下での報酬の非マルコフ的性質に対処するのに役立つ。
論文 参考訳(メタデータ) (2023-03-24T15:12:28Z) - PECAN: Leveraging Policy Ensemble for Context-Aware Zero-Shot Human-AI
Coordination [52.991211077362586]
本研究では,集団におけるパートナーの多様性を高めるための政策アンサンブル手法を提案する。
そこで我々は,egoエージェントがパートナーの潜在的ポリシープリミティブを分析し,識別するためのコンテキスト認識手法を開発した。
このようにして、エゴエージェントは多様なパートナーとの共同作業において、より普遍的な協調行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-01-16T12:14:58Z) - Learning Heterogeneous Agent Cooperation via Multiagent League Training [6.801749815385998]
本研究ではヘテロジニアス・リーグ・トレーニング(HLT)と呼ばれる汎用強化学習アルゴリズムを提案する。
HLTは、エージェントがトレーニング中に調査したポリシーのプールを追跡し、将来のポリシー最適化を促進するために異質なポリシーの集合を集めている。
協力スキルのレベルが異なるチームメイトとのコラボレーションにおいて、エージェントの振る舞いの多様性を高めるために、ハイパーネットワークが導入される。
論文 参考訳(メタデータ) (2022-11-13T13:57:15Z) - UneVEn: Universal Value Exploration for Multi-Agent Reinforcement
Learning [53.73686229912562]
我々はUniversal Value Exploration(UneVEn)と呼ばれる新しいMARLアプローチを提案する。
UneVEnは、一連の関連するタスクと、普遍的な後継機能の線形分解を同時に学習する。
一連の探索ゲームにおける実証的な結果、エージェント間の重要な調整を必要とする協調捕食・捕食作業への挑戦、およびStarCraft IIのマイクロマネジメントベンチマークは、UneVEnが他の最先端のMARLメソッドが失敗するタスクを解決できることを示している。
論文 参考訳(メタデータ) (2020-10-06T19:08:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。