論文の概要: StarCraft+: Benchmarking Multi-agent Algorithms in Adversary Paradigm
- arxiv url: http://arxiv.org/abs/2512.16444v1
- Date: Thu, 18 Dec 2025 11:58:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.040953
- Title: StarCraft+: Benchmarking Multi-agent Algorithms in Adversary Paradigm
- Title(参考訳): StarCraft+: 逆パラダイムにおけるマルチエージェントアルゴリズムのベンチマーク
- Authors: Yadong Li, Tong Zhang, Bo Huang, Zhen Cui,
- Abstract要約: 本研究では,スタークラフトIIバトルアリーナ(SC2BA)というマルチエージェントアルゴリズム-vs-algorithm環境を確立する。
StarCraftを基盤として、SC2BA環境は、特にアルゴリズム間の敵対者のために作られています。
We benchmark classic MARL algorithm in two type of adversarial modes: dual-algorithm paired adversary and multi-algorithm mixed adversary。
- 参考スコア(独自算出の注目度): 30.052231743944727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep multi-agent reinforcement learning (MARL) algorithms are booming in the field of collaborative intelligence, and StarCraft multi-agent challenge (SMAC) is widely-used as the benchmark therein. However, imaginary opponents of MARL algorithms are practically configured and controlled in a fixed built-in AI mode, which causes less diversity and versatility in algorithm evaluation. To address this issue, in this work, we establish a multi-agent algorithm-vs-algorithm environment, named StarCraft II battle arena (SC2BA), to refresh the benchmarking of MARL algorithms in an adversary paradigm. Taking StarCraft as infrastructure, the SC2BA environment is specifically created for inter-algorithm adversary with the consideration of fairness, usability and customizability, and meantime an adversarial PyMARL (APyMARL) library is developed with easy-to-use interfaces/modules. Grounding in SC2BA, we benchmark those classic MARL algorithms in two types of adversarial modes: dual-algorithm paired adversary and multi-algorithm mixed adversary, where the former conducts the adversary of pairwise algorithms while the latter focuses on the adversary to multiple behaviors from a group of algorithms. The extensive benchmark experiments exhibit some thought-provoking observations/problems in the effectivity, sensibility and scalability of these completed algorithms. The SC2BA environment as well as reproduced experiments are released in \href{https://github.com/dooliu/SC2BA}{Github}, and we believe that this work could mark a new step for the MARL field in the coming years.
- Abstract(参考訳): ディープマルチエージェント強化学習(MARL)アルゴリズムはコラボレーションインテリジェンス分野においてブームとなり,そのベンチマークとしてStarCraftマルチエージェントチャレンジ(SMAC)が広く利用されている。
しかし、MARLアルゴリズムの想像上の反対者は、アルゴリズム評価の多様性と汎用性を低下させる固定された組み込みAIモードで実質的に構成され、制御される。
この問題に対処するため,本研究では,マルチエージェントアルゴリズム-vs-algorithm環境であるStarCraft II Battleアリーナ(SC2BA)を構築し,MARLアルゴリズムのベンチマークを逆パラダイムで更新する。
StarCraftを基盤として、SC2BA環境は、公平性、ユーザビリティ、カスタマイズ性を考慮し、対向的なPyMARL(APyMARL)ライブラリを使いやすいインターフェース/モジュールで開発する。
SC2BAをベースとして,従来のMARLアルゴリズムを2種類の逆数モードでベンチマークする。
大規模なベンチマーク実験では、これらの完了したアルゴリズムの効果性、感受性、拡張性において、いくつかの思考によって引き起こされる観察/証明が示されている。
SC2BA 環境と再生実験は \href{https://github.com/dooliu/SC2BA}{Github} で公開されている。
関連論文リスト
- SMAC-Hard: Enabling Mixed Opponent Strategy Script and Self-play on SMAC [19.897956357070697]
トレーニングの堅牢性と評価の包括性を高めるための新しいベンチマークであるSMAC-HARDを提案する。
SMAC-HARDは、カスタマイズ可能な対戦戦略、敵ポリシーのランダム化、MARLのセルフプレイのためのインターフェースをサポートする。
我々は、SMAC-HARD上で広く使われているアルゴリズムと最先端のアルゴリズムを広範囲に評価し、編集・混合戦略相手がもたらす重大な課題を明らかにした。
論文 参考訳(メタデータ) (2024-12-23T16:36:21Z) - RAGLAB: A Modular and Research-Oriented Unified Framework for Retrieval-Augmented Generation [54.707460684650584]
大きな言語モデル(LLM)は対話、推論、知識保持における人間レベルの能力を示す。
現在の研究は、LLMに外部知識を組み込むことによって、このボトルネックに対処している。
RAGLABはモジュール的で研究指向のオープンソースライブラリで、6つの既存のアルゴリズムを再現し、RAGアルゴリズムを調査するための包括的なエコシステムを提供する。
論文 参考訳(メタデータ) (2024-08-21T07:20:48Z) - FightLadder: A Benchmark for Competitive Multi-Agent Reinforcement Learning [25.857375787748715]
我々は、リアルタイムの格闘ゲームプラットフォームであるFightLadderを紹介し、競争力のあるMARL研究を促進する。
競争ゲームのための最先端のMARLアルゴリズムの実装と評価指標のセットを提供する。
シングルプレイヤーモードで12文字を連続的に打ち破る汎用エージェントを訓練することにより,このプラットフォームの実現可能性を示す。
論文 参考訳(メタデータ) (2024-06-04T08:04:23Z) - JaxMARL: Multi-Agent RL Environments and Algorithms in JAX [105.343918678781]
我々は、GPU対応の効率と多くの一般的なMARL環境のサポートを組み合わせた、最初のオープンソースPythonベースのライブラリであるJaxMARLを紹介します。
我々の実験は、壁時計時間の観点から、JAXベースのトレーニングパイプラインが既存のアプローチの約14倍高速であることを示している。
また、人気の高いStarCraft Multi-Agent ChallengeのJAXベースの近似的な再実装であるSMAXを紹介し、ベンチマークする。
論文 参考訳(メタデータ) (2023-11-16T18:58:43Z) - SMACv2: An Improved Benchmark for Cooperative Multi-Agent Reinforcement
Learning [45.98103968842858]
StarCraft Multi-Agent Challenge (SMAC)は、分散実行を伴う集中的なトレーニングのための人気のあるテストベッドである。
SMAC には複雑な *closed-loop* ポリシーを必要とする部分的な可観測性がないことを示す。
SMACv2は、シナリオが手続き的に生成され、エージェントが以前見つからなかった設定を一般化する必要があるベンチマークの新バージョンである。
論文 参考訳(メタデータ) (2022-12-14T20:15:19Z) - Discovering Multi-Agent Auto-Curricula in Two-Player Zero-Sum Games [31.97631243571394]
明示的な人間設計なしに更新ルールの発見を自動化するフレームワークであるLMACを導入する。
意外なことに、人間のデザインがなくても、発見されたMARLアルゴリズムは競争力や性能が向上する。
LMAC は,例えば Kuhn Poker のトレーニングやPSRO の成績など,小型ゲームから大規模ゲームへの一般化が可能であることを示す。
論文 参考訳(メタデータ) (2021-06-04T22:30:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。