論文の概要: HLSMAC: A New StarCraft Multi-Agent Challenge for High-Level Strategic Decision-Making
- arxiv url: http://arxiv.org/abs/2509.12927v1
- Date: Tue, 16 Sep 2025 10:26:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.032012
- Title: HLSMAC: A New StarCraft Multi-Agent Challenge for High-Level Strategic Decision-Making
- Title(参考訳): HLSMAC:高レベル戦略決定のための新しいスタークラフトマルチエージェントチャレンジ
- Authors: Xingxing Hong, Yungong Wang, Dexin Jin, Ye Yuan, Ximing Huang, Zijian Wu, Wenxin Li,
- Abstract要約: 我々は,三十六ストラタゲムの古典的ストラタゲムに基づく12のStarCraft IIシナリオを慎重に設計した新しい協調型MARLベンチマークであるHLSMACを紹介する。
それぞれのシナリオは特定の戦略と一致し、戦術的な操作、タイミング調整、詐欺といった様々な戦略要素を持つエージェントに挑戦するように設計されている。
本研究では,HLSMAC環境におけるエージェントの総合的性能を評価するために,従来の勝利率を超える新たな指標,例えば能力利用率や向上効率を提案する。
- 参考スコア(独自算出の注目度): 6.071345022213649
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Benchmarks are crucial for assessing multi-agent reinforcement learning (MARL) algorithms. While StarCraft II-related environments have driven significant advances in MARL, existing benchmarks like SMAC focus primarily on micromanagement, limiting comprehensive evaluation of high-level strategic intelligence. To address this, we introduce HLSMAC, a new cooperative MARL benchmark with 12 carefully designed StarCraft II scenarios based on classical stratagems from the Thirty-Six Stratagems. Each scenario corresponds to a specific stratagem and is designed to challenge agents with diverse strategic elements, including tactical maneuvering, timing coordination, and deception, thereby opening up avenues for evaluating high-level strategic decision-making capabilities. We also propose novel metrics across multiple dimensions beyond conventional win rate, such as ability utilization and advancement efficiency, to assess agents' overall performance within the HLSMAC environment. We integrate state-of-the-art MARL algorithms and LLM-based agents with our benchmark and conduct comprehensive experiments. The results demonstrate that HLSMAC serves as a robust testbed for advancing multi-agent strategic decision-making.
- Abstract(参考訳): ベンチマークはマルチエージェント強化学習(MARL)アルゴリズムを評価する上で重要である。
StarCraft II関連の環境はMARLに大きな進歩をもたらしたが、SMACのような既存のベンチマークは主にマイクロマネジメントに重点を置いており、高いレベルの戦略的インテリジェンスの包括的な評価を制限している。
そこで我々は,三十六ストラタゲムの古典的ストラタゲムに基づく12のStarCraft IIシナリオを慎重に設計した新しい協調型MARLベンチマークであるHLSMACを紹介する。
それぞれのシナリオは特定の戦略戦略に対応し、戦術的操作、タイミング調整、詐欺といった様々な戦略要素を持つエージェントに挑戦するように設計されており、それによって高いレベルの戦略決定能力を評価するための道を開く。
また,HLSMAC環境におけるエージェントの全体的な性能を評価するために,能力利用率や向上効率など,従来の勝利率を超えて,複数の次元にまたがる新しい指標を提案する。
我々は、最先端のMARLアルゴリズムとLLMベースのエージェントをベンチマークと統合し、包括的な実験を行う。
以上の結果から,HLSMACはマルチエージェントの戦略的意思決定を推進するための堅牢なテストベッドとして機能することが示唆された。
関連論文リスト
- Society of Mind Meets Real-Time Strategy: A Hierarchical Multi-Agent Framework for Strategic Reasoning [16.35236123729838]
我々は,Strategic Planner (SP) と呼ばれるメタコントローラの下で,特殊模倣学習エージェントを利用する階層型マルチエージェントフレームワークを提案する。
専門家によるデモンストレーションによって、各特殊エージェントは、航空支援や防御演習のような独特の戦略を学び、一貫性のある、構造化された多段階のアクションシーケンスを生成する。
SPはこれらの提案を1つの環境適応プランに編成し、局所的な決定が長期的な戦略と整合することを保証する。
論文 参考訳(メタデータ) (2025-08-08T05:57:12Z) - ReMA: Learning to Meta-think for LLMs with Multi-Agent Reinforcement Learning [53.817538122688944]
Reinforced Meta-thinking Agents (ReMA) を導入し,Large Language Models (LLMs) の推論からメタ思考行動を求める。
ReMAは、推論プロセスを2つの階層的なエージェントに分解する。戦略上の監視と計画を生成するハイレベルなメタ思考エージェントと、詳細な実行のための低レベルな推論エージェントである。
単ターン実験による実験結果から、ReMAは複雑な推論タスクにおいて単エージェントRLベースラインよりも優れることが示された。
論文 参考訳(メタデータ) (2025-03-12T16:05:31Z) - AVA: Attentive VLM Agent for Mastering StarCraft II [56.07921367623274]
Intentive VLM Agent (AVA) は、人工エージェントの認識と人間のゲームプレイ体験を一致させるマルチモーダルのStarCraft IIエージェントである。
我々のエージェントは、ゲームプレイ中に人間の認知過程をより密にシミュレートするRGB視覚入力と自然言語観察を組み込むことにより、この制限に対処する。
論文 参考訳(メタデータ) (2025-03-07T12:54:25Z) - MultiAgentBench: Evaluating the Collaboration and Competition of LLM agents [59.825725526176655]
大規模言語モデル(LLM)は、自律的なエージェントとして顕著な能力を示している。
既存のベンチマークでは、単一エージェントタスクにフォーカスするか、狭いドメインに限定されており、マルチエージェントのコーディネーションと競合のダイナミクスを捉えていない。
多様な対話シナリオにまたがってLLMベースのマルチエージェントシステムを評価するためのベンチマークであるMultiAgentBenchを紹介する。
論文 参考訳(メタデータ) (2025-03-03T05:18:50Z) - SMAC-Hard: Enabling Mixed Opponent Strategy Script and Self-play on SMAC [19.897956357070697]
トレーニングの堅牢性と評価の包括性を高めるための新しいベンチマークであるSMAC-HARDを提案する。
SMAC-HARDは、カスタマイズ可能な対戦戦略、敵ポリシーのランダム化、MARLのセルフプレイのためのインターフェースをサポートする。
我々は、SMAC-HARD上で広く使われているアルゴリズムと最先端のアルゴリズムを広範囲に評価し、編集・混合戦略相手がもたらす重大な課題を明らかにした。
論文 参考訳(メタデータ) (2024-12-23T16:36:21Z) - Benchmarking Robustness and Generalization in Multi-Agent Systems: A
Case Study on Neural MMO [50.58083807719749]
IJCAI 2022で開催されている第2回Neural MMOチャレンジの結果を報告する。
この競合はマルチエージェントシステムの堅牢性と一般化をターゲットにしている。
環境ラッパー、ベースライン、可視化ツール、そしてさらなる研究のための選択されたポリシーを含むベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2023-08-30T07:16:11Z) - Exploiting Semantic Epsilon Greedy Exploration Strategy in Multi-Agent
Reinforcement Learning [6.615661844604509]
マルチエージェント強化学習(MARL)のための新しいアプローチQMIX(SEG)を提案する。
本手法では,QMIX値関数分解法を用いてエージェントごとのポリシーを訓練し,新しいセマンティック・エプシロン・グリーディ(SEG)探索戦略を提案する。
我々はSEGが原子行動よりも豊かな意味を持つ行動群を探索することで意味探索を促進することを論じる。
論文 参考訳(メタデータ) (2022-01-26T08:21:11Z) - Strategically Efficient Exploration in Competitive Multi-agent
Reinforcement Learning [25.041622707261897]
本研究は,非協調的マルチエージェント環境における楽観的な探索の役割を理解することを目的とする。
ゼロサムゲームにおいて、楽観的な探索は、学習者が戦略的なプレーとは無関係な状態空間のサンプリング部分を無駄にしてしまうことを示します。
この問題に対処するため、マルコフゲームにおいて戦略的に効率的な探索という形式的概念を導入し、これを有限マルコフゲームのための戦略的に効率的な2つの学習アルゴリズムの開発に利用する。
論文 参考訳(メタデータ) (2021-07-30T15:22:59Z) - UneVEn: Universal Value Exploration for Multi-Agent Reinforcement
Learning [53.73686229912562]
我々はUniversal Value Exploration(UneVEn)と呼ばれる新しいMARLアプローチを提案する。
UneVEnは、一連の関連するタスクと、普遍的な後継機能の線形分解を同時に学習する。
一連の探索ゲームにおける実証的な結果、エージェント間の重要な調整を必要とする協調捕食・捕食作業への挑戦、およびStarCraft IIのマイクロマネジメントベンチマークは、UneVEnが他の最先端のMARLメソッドが失敗するタスクを解決できることを示している。
論文 参考訳(メタデータ) (2020-10-06T19:08:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。