論文の概要: Multi-Agent Craftax: Benchmarking Open-Ended Multi-Agent Reinforcement Learning at the Hyperscale
- arxiv url: http://arxiv.org/abs/2511.04904v1
- Date: Fri, 07 Nov 2025 01:09:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.63379
- Title: Multi-Agent Craftax: Benchmarking Open-Ended Multi-Agent Reinforcement Learning at the Hyperscale
- Title(参考訳): Multi-Agent Craftax: Hyperscaleでのオープンソースマルチエージェント強化学習のベンチマーク
- Authors: Bassel Al Omari, Michael Matthews, Alexander Rutherford, Jakob Nicolaus Foerster,
- Abstract要約: textitCraftax-MAは、人気のあるオープンエンドRL環境であるCraftaxの拡張である。
textitCraftax-Coopは異質なエージェント、トレーディング、さらに多くのメカニクスを導入し、エージェント間の複雑な協力を必要としている。
- 参考スコア(独自算出の注目度): 53.08403177911567
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Progress in multi-agent reinforcement learning (MARL) requires challenging benchmarks that assess the limits of current methods. However, existing benchmarks often target narrow short-horizon challenges that do not adequately stress the long-term dependencies and generalization capabilities inherent in many multi-agent systems. To address this, we first present \textit{Craftax-MA}: an extension of the popular open-ended RL environment, Craftax, that supports multiple agents and evaluates a wide range of general abilities within a single environment. Written in JAX, \textit{Craftax-MA} is exceptionally fast with a training run using 250 million environment interactions completing in under an hour. To provide a more compelling challenge for MARL, we also present \textit{Craftax-Coop}, an extension introducing heterogeneous agents, trading and more mechanics that require complex cooperation among agents for success. We provide analysis demonstrating that existing algorithms struggle with key challenges in this benchmark, including long-horizon credit assignment, exploration and cooperation, and argue for its potential to drive long-term research in MARL.
- Abstract(参考訳): マルチエージェント強化学習(MARL)の進歩は、現在の手法の限界を評価するための挑戦的なベンチマークを必要とする。
しかし、既存のベンチマークは、多くのマルチエージェントシステムに固有の長期的依存関係や一般化能力を十分に強調しない狭い短水平課題をターゲットにしていることが多い。
そこで我々はまず,複数のエージェントをサポートし,単一の環境内で幅広い汎用能力を評価する,人気のあるオープンエンドRL環境であるCraftaxの拡張である‘textit{Craftax-MA}を提示する。
JAX で記述された \textit{Craftax-MA} は,2億5000万の環境インタラクションを 1 時間以内で完了したトレーニング実行で非常に高速です。
MARLのより説得力のある課題として,異種エージェントやトレーディング,さらに複雑なエージェント間の協調を必要とするメカニクスを導入した拡張である‘textit{Craftax-Coop} も紹介する。
我々は、このベンチマークで既存のアルゴリズムが、長期信用割り当て、探索と協力を含む重要な課題に苦しむことを実証し、MARLにおける長期的な研究を促進する可能性について論じる。
関連論文リスト
- UltraHorizon: Benchmarking Agent Capabilities in Ultra Long-Horizon Scenarios [63.67884284105684]
textbfUltraHorizonは、複雑な現実世界の課題に不可欠な基礎的能力を測定する新しいベンチマークである。
エージェントは、隠されたルールを反復的に発見しなければならない、長期にわたる発見タスクで設計されている。
実験の結果, LLM-agents はこれらの設定において常に不利な成績を示し, ヒトは高いスコアを得ることができた。
論文 参考訳(メタデータ) (2025-09-26T02:04:00Z) - The Heterogeneous Multi-Agent Challenge [0.4199844472131922]
マルチエージェント強化学習(MARL、Multi-Agent Reinforcement Learning)は、近年大きな注目を集めている研究分野である。
HeMARL(Heterogeneous Multi-Agent Reinforcement Learning)とは、様々なセンサー、リソース、能力を持つエージェントが、ローカル情報に基づいて協力する必要がある分野である。
論文 参考訳(メタデータ) (2025-09-23T19:30:30Z) - O-MAPL: Offline Multi-agent Preference Learning [5.4482836906033585]
実演から報酬関数を推定することは強化学習(RL)の重要な課題である
協調型MARLのためのエンドツーエンドの嗜好に基づく新しい学習フレームワークを提案する。
我々のアルゴリズムは様々なタスクにまたがって既存の手法より優れている。
論文 参考訳(メタデータ) (2025-01-31T08:08:20Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - JaxMARL: Multi-Agent RL Environments and Algorithms in JAX [105.343918678781]
我々は、GPU対応の効率と多くの一般的なMARL環境のサポートを組み合わせた、最初のオープンソースPythonベースのライブラリであるJaxMARLを紹介します。
我々の実験は、壁時計時間の観点から、JAXベースのトレーニングパイプラインが既存のアプローチの約14倍高速であることを示している。
また、人気の高いStarCraft Multi-Agent ChallengeのJAXベースの近似的な再実装であるSMAXを紹介し、ベンチマークする。
論文 参考訳(メタデータ) (2023-11-16T18:58:43Z) - FoX: Formation-aware exploration in multi-agent reinforcement learning [10.554220876480297]
本研究では, 探索空間における構成に基づく等価性関係を提案し, 異なる構成の有意義な状態のみを探索することによって探索空間を削減することを目的とする。
数値計算の結果,提案するFoXフレームワークは,Google Research Football(GRF)における最先端のMARLアルゴリズムと,Starcraft IIマルチエージェントチャレンジ(SMAC)タスクを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-08-22T08:39:44Z) - Cooperative Exploration for Multi-Agent Deep Reinforcement Learning [127.4746863307944]
深層強化学習のための協調型マルチエージェント探索(CMAE)を提案する。
ゴールは正規化エントロピーに基づく手法により、複数の射影状態空間から選択される。
CMAEが様々なタスクのベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2021-07-23T20:06:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。