論文の概要: TacticCraft: Natural Language-Driven Tactical Adaptation for StarCraft II
- arxiv url: http://arxiv.org/abs/2507.15618v1
- Date: Mon, 21 Jul 2025 13:42:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.420375
- Title: TacticCraft: Natural Language-Driven Tactical Adaptation for StarCraft II
- Title(参考訳): TacticCraft: StarCraft IIの自然言語駆動型戦術適応
- Authors: Weiyu Ma, Jiwen Jiang, Haobo Fu, Haifeng Zhang,
- Abstract要約: 本稿では,StarCraft IIのAIエージェントの戦術的条件付けのためのアダプタベースのアプローチを提案する。
提案手法は,事前学習されたポリシーネットワーク(DI-Star)を凍結し,各アクションヘッドに軽量なアダプタモジュールを付加する。
実験の結果,攻撃性,拡張パターン,技術嗜好など,戦術的側面におけるエージェントの挙動の調整に成功していることがわかった。
- 参考スコア(独自算出の注目度): 4.059142160949011
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an adapter-based approach for tactical conditioning of StarCraft II AI agents. Current agents, while powerful, lack the ability to adapt their strategies based on high-level tactical directives. Our method freezes a pre-trained policy network (DI-Star) and attaches lightweight adapter modules to each action head, conditioned on a tactical tensor that encodes strategic preferences. By training these adapters with KL divergence constraints, we ensure the policy maintains core competencies while exhibiting tactical variations. Experimental results show our approach successfully modulates agent behavior across tactical dimensions including aggression, expansion patterns, and technology preferences, while maintaining competitive performance. Our method enables flexible tactical control with minimal computational overhead, offering practical strategy customization for complex real-time strategy games.
- Abstract(参考訳): 本稿では,StarCraft IIのAIエージェントの戦術的条件付けのためのアダプタベースのアプローチを提案する。
現在のエージェントは強力だが、高レベルの戦術的指示に基づいて戦略を適応する能力は欠如している。
提案手法は,事前学習されたポリシーネットワーク(DI-Star)を凍結し,戦略的嗜好を符号化した戦術テンソルを条件とした,軽量なアダプタモジュールを各アクションヘッドにアタッチする。
KL分散制約でこれらのアダプタを訓練することにより、戦術的バリエーションを示しながら、ポリシーがコア能力を維持することを保証する。
提案手法は,攻撃性,拡張パターン,技術嗜好などの戦術的側面におけるエージェントの挙動を,競争性能を維持しつつ,効果的に調整できることを実験的に示す。
本手法は,計算オーバーヘッドを最小限に抑えた柔軟な戦術制御を可能にし,複雑なリアルタイム戦略ゲームに対して実用的な戦略カスタマイズを実現する。
関連論文リスト
- Reinforcement Learning for Decision-Level Interception Prioritization in Drone Swarm Defense [56.47577824219207]
本稿では,この課題に対処する上で,強化学習の実践的メリットを示すケーススタディを提案する。
本研究では,現実的な運用制約を捉えた高忠実度シミュレーション環境を提案する。
エージェントは最適なインターセプション優先順位付けのために複数のエフェクターを調整することを学ぶ。
我々は、何百ものシミュレートされた攻撃シナリオにおいて、手作りルールベースのベースラインに対する学習ポリシーを評価する。
論文 参考訳(メタデータ) (2025-08-01T13:55:39Z) - CyGATE: Game-Theoretic Cyber Attack-Defense Engine for Patch Strategy Optimization [73.13843039509386]
本稿では,攻撃と防御の相互作用をモデル化するゲーム理論フレームワークCyGATEを提案する。
CyGATEはサイバー・キル・チェーン(Cyber Kill Chain)の段階にわたって、サイバー紛争を部分的に観察可能なゲーム(POSG)として捉えている。
フレームワークの柔軟なアーキテクチャは、マルチエージェントシナリオの拡張を可能にする。
論文 参考訳(メタデータ) (2025-08-01T09:53:06Z) - Strategy Adaptation in Large Language Model Werewolf Agents [9.851961546227912]
本研究では,他のプレイヤーの態度と会話の文脈に基づく事前定義された戦略を切り替えることで,Werewolfエージェントの性能を向上させる手法を提案する。
Werewolf エージェントを暗黙的あるいは固定的な戦略を用いてベースラインエージェントと比較し,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2025-07-17T02:27:45Z) - AVA: Attentive VLM Agent for Mastering StarCraft II [56.07921367623274]
Intentive VLM Agent (AVA) は、人工エージェントの認識と人間のゲームプレイ体験を一致させるマルチモーダルのStarCraft IIエージェントである。
我々のエージェントは、ゲームプレイ中に人間の認知過程をより密にシミュレートするRGB視覚入力と自然言語観察を組み込むことにより、この制限に対処する。
論文 参考訳(メタデータ) (2025-03-07T12:54:25Z) - Ranking Joint Policies in Dynamic Games using Evolutionary Dynamics [0.0]
単純な2プレイヤーゲームでもエージェントの相互作用のダイナミクスはナッシュ平衡に達することができないことが示されている。
我々のゴールは、安定した行動をもたらすエージェントの合同戦略を特定し、変化に抵抗すると同時に、エージェントの支払いも考慮することである。
論文 参考訳(メタデータ) (2025-02-20T16:50:38Z) - Preference-based opponent shaping in differentiable games [3.373994463906893]
そこで我々は,エージェントの嗜好を協調に向けて形作ることによって,戦略学習プロセスを強化するためのPBOS法を提案する。
様々な異なるゲームにおいてPBOSアルゴリズムの性能を検証する。
論文 参考訳(メタデータ) (2024-12-04T06:49:21Z) - All by Myself: Learning Individualized Competitive Behaviour with a
Contrastive Reinforcement Learning optimization [57.615269148301515]
競争ゲームのシナリオでは、エージェントのセットは、彼らの目標を最大化し、敵の目標を同時に最小化する決定を学習する必要があります。
本稿では,競争ゲームの表現を学習し,特定の相手の戦略をどうマップするか,それらを破壊するかを学習する3つのニューラルネットワーク層からなる新しいモデルを提案する。
我々の実験は、オフライン、オンライン、競争特化モデル、特に同じ対戦相手と複数回対戦した場合に、我々のモデルがより良いパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2023-10-02T08:11:07Z) - Learning Near-Optimal Intrusion Responses Against Dynamic Attackers [0.0]
自動侵入応答について検討し,攻撃者とディフェンダーとの相互作用を最適な停止ゲームとして定式化する。
準最適ディフェンダー戦略を得るために,近似を用いてナッシュリリアを学習する架空のセルフプレイアルゴリズムを開発した。
このアプローチは、実用的なITインフラストラクチャのための効果的なディフェンダー戦略を生み出すことができる、と私たちは主張する。
論文 参考訳(メタデータ) (2023-01-11T16:36:24Z) - LAS-AT: Adversarial Training with Learnable Attack Strategy [82.88724890186094]
LAS-ATと呼ばれる「学習可能な攻撃戦略」は、モデル堅牢性を改善するための攻撃戦略を自動生成することを学ぶ。
当社のフレームワークは,強靭性向上のためのトレーニングにAEを使用するターゲットネットワークと,AE生成を制御するための攻撃戦略を生成する戦略ネットワークで構成されている。
論文 参考訳(メタデータ) (2022-03-13T10:21:26Z) - Conditional Imitation Learning for Multi-Agent Games [89.897635970366]
本研究では,条件付きマルチエージェント模倣学習の課題について考察する。
本稿では,スケーラビリティとデータ不足の難しさに対処する新しい手法を提案する。
我々のモデルは,egoやパートナエージェント戦略よりも低ランクなサブスペースを学習し,サブスペースに補間することで,新たなパートナ戦略を推論し,適応する。
論文 参考訳(メタデータ) (2022-01-05T04:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。