論文の概要: Scaling Strategy, Not Compute: A Stand-Alone, Open-Source StarCraft II Benchmark for Accessible Reinforcement Learning Research
- arxiv url: http://arxiv.org/abs/2603.06608v1
- Date: Thu, 19 Feb 2026 04:13:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.42781
- Title: Scaling Strategy, Not Compute: A Stand-Alone, Open-Source StarCraft II Benchmark for Accessible Reinforcement Learning Research
- Title(参考訳): コンピューティングではなくスケーリング戦略 - アクセシブル強化学習研究のためのスタンドアロンオープンソースのStarCraft IIベンチマーク
- Authors: Sourav Panda, Shreyash Kale, Tanmay Ambadkar, Abhinav Verma, Jonathan Dodge,
- Abstract要約: 本稿では,StarCraft IIのミニゲームのベンチマークであるTwo-Bridge Map Suiteを紹介する。
経済メカニズムを無効にすることで、環境は長距離ナビゲーションとマイクロコンバットという2つの中核的な戦術スキルを分離する。
予備実験では、エージェントは完全な計算コストを課すことなくコヒーレントな操作とエンゲージメントの振る舞いを学ぶ。
- 参考スコア(独自算出の注目度): 2.5959683852997806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The research community lacks a middle ground between StarCraft IIs full game and its mini-games. The full-games sprawling state-action space renders reward signals sparse and noisy, but in mini-games simple agents saturate performance. This complexity gap hinders steady curriculum design and prevents researchers from experimenting with modern Reinforcement Learning algorithms in RTS environments under realistic compute budgets. To fill this gap, we present the Two-Bridge Map Suite, the first entry in an open-source benchmark series we purposely engineered as an intermediate benchmark to sit between these extremes. By disabling economy mechanics such as resource collection, base building, and fog-of-war, the environment isolates two core tactical skills: long-range navigation and micro-combat. Preliminary experiments show that agents learn coherent maneuvering and engagement behaviors without imposing full-game computational costs. Two-Bridge is released as a lightweight, Gym-compatible wrapper on top of PySC2, with maps, wrappers, and reference scripts fully open-sourced to encourage broad adoption as a standard benchmark.
- Abstract(参考訳): 研究コミュニティには、StarCraft IIのフルゲームとミニゲームの間には、中間点がない。
状態アクション空間が広がるフルゲームでは、報酬信号はスパースでノイズが多いが、ミニゲームでは単純なエージェントがパフォーマンスを飽和させる。
この複雑さのギャップは、安定したカリキュラム設計を妨げ、研究者が現実的な計算予算の下でRTS環境でモダンな強化学習アルゴリズムを試すのを防ぐ。
このギャップを埋めるために、我々はTwo-Bridge Map Suiteを紹介します。
資源収集、基地建設、戦争の霧といった経済メカニズムを無効にすることで、環境は長距離航法とマイクロコンバットという2つの中核的な戦術スキルを分離する。
予備実験では、エージェントは完全な計算コストを課すことなくコヒーレントな操作とエンゲージメントの振る舞いを学ぶ。
Two-Bridgeは、PySC2上にGym互換の軽量ラッパーとしてリリースされ、マップ、ラッパー、参照スクリプトが完全にオープンソース化され、標準ベンチマークとして広く採用されている。
関連論文リスト
- TowerMind: A Tower Defence Game Learning Environment and Benchmark for LLM as Agents [5.173133826653683]
本稿では,RTSゲームにおけるタワー防衛サブジャンルを基盤とした,新しい環境であるタワーミンドを紹介する。
我々は、広く使われている大規模言語モデルを評価するために、5つのベンチマークレベルを設計する。
その結果、LLMと人間の専門家の能力と幻覚の両面において、明らかなパフォーマンスギャップが明らかとなった。
論文 参考訳(メタデータ) (2026-01-09T16:18:08Z) - StarCraft+: Benchmarking Multi-agent Algorithms in Adversary Paradigm [30.052231743944727]
本研究では,スタークラフトIIバトルアリーナ(SC2BA)というマルチエージェントアルゴリズム-vs-algorithm環境を確立する。
StarCraftを基盤として、SC2BA環境は、特にアルゴリズム間の敵対者のために作られています。
We benchmark classic MARL algorithm in two type of adversarial modes: dual-algorithm paired adversary and multi-algorithm mixed adversary。
論文 参考訳(メタデータ) (2025-12-18T11:58:10Z) - SC2Arena and StarEvolve: Benchmark and Self-Improvement Framework for LLMs in Complex Decision-Making Tasks [24.84821125790223]
StarCraft IIのような既存のタスクのベンチマークは、ゲームの完全な複雑さを捉えていない。
SC2Arenaは、すべてのプレイ可能なレース、低レベルのアクションスペースを完全にサポートし、テキストベースの観察を最適化し、空間的推論の課題に対処するベンチマークである。
戦略計画と戦術実行を統合する階層的なフレームワークであるStarEvolveを紹介する。
論文 参考訳(メタデータ) (2025-08-14T07:58:01Z) - AVA: Attentive VLM Agent for Mastering StarCraft II [56.07921367623274]
Intentive VLM Agent (AVA) は、人工エージェントの認識と人間のゲームプレイ体験を一致させるマルチモーダルのStarCraft IIエージェントである。
我々のエージェントは、ゲームプレイ中に人間の認知過程をより密にシミュレートするRGB視覚入力と自然言語観察を組み込むことにより、この制限に対処する。
論文 参考訳(メタデータ) (2025-03-07T12:54:25Z) - SwarmBrain: Embodied agent for real-time strategy game StarCraft II via
large language models [1.235958663217432]
本研究の目的は,大規模言語モデル(LLM)がリアルタイム戦略戦争タスクの実行に与える影響を検討することである。
本稿では,StarCraft II ゲーム環境におけるリアルタイム戦略実装に LLM を活用する具体的エージェントである SwarmBrain を紹介する。
実験結果から,SwarmBrainの経済増進,領土拡大,戦術定式化を行う能力が示された。
論文 参考訳(メタデータ) (2024-01-31T11:14:29Z) - SPRING: Studying the Paper and Reasoning to Play Games [102.5587155284795]
我々は,ゲーム本来の学術論文を読み取るための新しいアプローチ,SPRINGを提案し,大言語モデル(LLM)を通してゲームの説明とプレイの知識を利用する。
実験では,クラフトオープンワールド環境の設定下で,異なる形態のプロンプトによって引き起こされる文脈内「推論」の品質について検討した。
我々の実験は、LLMが一貫したチェーン・オブ・シークレットによって誘導されると、洗練された高レベル軌道の完成に大きな可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-05-24T18:14:35Z) - Applying supervised and reinforcement learning methods to create
neural-network-based agents for playing StarCraft II [0.0]
本稿では,汎用的な教師付き強化学習でトレーニングしたStarCraft IIのフル2プレーヤマッチングを実現するニューラルネットワークアーキテクチャを提案する。
本実装では,ゲーム内スクリプトボットと比較して,非自明な性能を実現している。
論文 参考訳(メタデータ) (2021-09-26T20:08:10Z) - Efficient exploration of zero-sum stochastic games [83.28949556413717]
ゲームプレイを通じて,ゲームの記述を明示せず,託宣のみにアクセス可能な,重要で一般的なゲーム解決環境について検討する。
限られたデュレーション学習フェーズにおいて、アルゴリズムは両方のプレイヤーのアクションを制御し、ゲームを学習し、それをうまくプレイする方法を学習する。
私たちのモチベーションは、クエリされた戦略プロファイルの支払いを評価するのにコストがかかる状況において、利用可能性の低い戦略を迅速に学習することにあります。
論文 参考訳(メタデータ) (2020-02-24T20:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。