論文の概要: Towards Zero-Shot Coordination between Teams of Agents: The N-XPlay Framework
- arxiv url: http://arxiv.org/abs/2506.17560v1
- Date: Sat, 21 Jun 2025 03:04:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.475781
- Title: Towards Zero-Shot Coordination between Teams of Agents: The N-XPlay Framework
- Title(参考訳): エージェントチーム間のゼロショット調整に向けて:N-XPlayフレームワーク
- Authors: Ava Abderezaei, Chi-Hui Lin, Joseph Miceli, Naren Sivagnanadasan, Stéphane Aroca-Ouellette, Jake Brawer, Alessandro Roncone,
- Abstract要約: 人気のある2エージェントZSCベンチマークのNエージェント拡張であるN-player Overcookedを紹介する。
次に、Nエージェント、複数チーム設定でZSC用のN-XPlayを提案する。
- 参考スコア(独自算出の注目度): 37.12636127460221
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Zero-shot coordination (ZSC) -- the ability to collaborate with unfamiliar partners -- is essential to making autonomous agents effective teammates. Existing ZSC methods evaluate coordination capabilities between two agents who have not previously interacted. However, these scenarios do not reflect the complexity of real-world multi-agent systems, where coordination often involves a hierarchy of sub-groups and interactions between teams of agents, known as Multi-Team Systems (MTS). To address this gap, we first introduce N-player Overcooked, an N-agent extension of the popular two-agent ZSC benchmark, enabling evaluation of ZSC in N-agent scenarios. We then propose N-XPlay for ZSC in N-agent, multi-team settings. Comparison against Self-Play across two-, three- and five-player Overcooked scenarios, where agents are split between an ``ego-team'' and a group of unseen collaborators shows that agents trained with N-XPlay are better able to simultaneously balance ``intra-team'' and ``inter-team'' coordination than agents trained with SP.
- Abstract(参考訳): ゼロショットコーディネート(ZSC) — 馴染みのないパートナとコラボレーションする能力 — は、自律的なエージェントを効果的にチームメイトにするために不可欠である。
既存のZSC手法は、これまで相互作用していない2つのエージェント間の調整能力を評価する。
しかしながら、これらのシナリオは実世界のマルチエージェントシステムの複雑さを反映していない。
このギャップに対処するために、我々はまず、人気のある2エージェントZSCベンチマークのNエージェント拡張であるN-player Overcookedを導入し、NエージェントシナリオにおけるZSCの評価を可能にした。
次に、Nエージェント、複数チーム設定でZSC用のN-XPlayを提案する。
エージェントを‘ego-team’と未知のコラボレータのグループに分割するオーバークッキングシナリオでは、N-XPlayでトレーニングされたエージェントは、SPでトレーニングされたエージェントよりも‘intra-team’と‘inter-team’のコーディネーションを同時にバランスできる。
関連論文リスト
- Generalizable Agent Modeling for Agent Collaboration-Competition Adaptation with Multi-Retrieval and Dynamic Generation [19.74776726500979]
ひとつのエージェントを新しいマルチエージェントシステムに適用することは、課題をもたらし、さまざまなタスク、環境、未知のチームメイトや相手とのインタラクションを調整する必要がある。
本稿では,多種多様なシナリオにまたがってエージェントを一般化するためのエージェント評価を行う,より包括的なエージェント協調適応手法を提案する。
ACCAでは、エージェントはタスクや環境の変化を調整し、目に見えないチームメイトと協力し、未知の相手と競う。
論文 参考訳(メタデータ) (2025-06-20T03:28:18Z) - MindAgent: Emergent Gaming Interaction [103.73707345211892]
大規模言語モデル(LLM)は、マルチエージェントシステムで複雑なスケジューリングを行う能力を持つ。
我々はMindAgentを提案し,ゲームインタラクションにおける創発的能力の評価・調整を行う。
論文 参考訳(メタデータ) (2023-09-18T17:52:22Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Exploring the Benefits of Teams in Multiagent Learning [5.334505575267924]
組織心理学(OP)に触発された強化学習(RL)エージェントのためのマルチエージェントチームの新しいモデルを提案する。
我々は、協力しないインセンティブにもかかわらず、チームに分かれたエージェントが協調的な社会政策を開発することを発見した。
エージェントはチームの創発的な役割をコーディネートし、学習し、すべてのエージェントの利害関係が整った時よりも高い報酬を得ることができる。
論文 参考訳(メタデータ) (2022-05-04T21:14:03Z) - Multi-Agent Collaboration via Reward Attribution Decomposition [75.36911959491228]
本稿では,StarCraftのマルチエージェントチャレンジにおいて,最先端のパフォーマンスを実現するコラボレーション型Q-ラーニング(CollaQ)を提案する。
CollaQは様々なStarCraft属性マップで評価され、既存の最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-16T17:42:11Z) - "Other-Play" for Zero-Shot Coordination [21.607428852157273]
その他の遊び学習アルゴリズムは、より堅牢な戦略を探すことによって、セルフプレイを強化する。
本研究では,協力型カードゲーム「はなび」について検討し,OPエージェントが単独で訓練されたエージェントとペアを組むと,より高いスコアが得られることを示す。
論文 参考訳(メタデータ) (2020-03-06T00:39:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。