論文の概要: Playing Hex and Counter Wargames using Reinforcement Learning and Recurrent Neural Networks
- arxiv url: http://arxiv.org/abs/2502.13918v1
- Date: Wed, 19 Feb 2025 17:52:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 13:59:20.972299
- Title: Playing Hex and Counter Wargames using Reinforcement Learning and Recurrent Neural Networks
- Title(参考訳): 強化学習とリカレントニューラルネットワークを用いたヘックスゲームとカウンターウォーゲーム
- Authors: Guilherme Palma, Pedro A. Santos, João Dias,
- Abstract要約: HexとCounter Wargamesは、複雑な戦略決定を必要とする実際の軍事紛争の敵対的な2人のプレイヤーシミュレーションである。
本稿では,HexとCounter Wargamesの戦略的複雑さに対処する新しいシステムを提案する。
このシステムは、信頼性の高い現代強化学習アルゴリズムであるAlphaZeroを用いて、リカレントニューラルネットワークにおける最先端の進歩を取り入れている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Hex and Counter Wargames are adversarial two-player simulations of real military conflicts requiring complex strategic decision-making. Unlike classical board games, these games feature intricate terrain/unit interactions, unit stacking, large maps of varying sizes, and simultaneous move and combat decisions involving hundreds of units. This paper introduces a novel system designed to address the strategic complexity of Hex and Counter Wargames by integrating cutting-edge advancements in Recurrent Neural Networks with AlphaZero, a reliable modern Reinforcement Learning algorithm. The system utilizes a new Neural Network architecture developed from existing research, incorporating innovative state and action representations tailored to these specific game environments. With minimal training, our solution has shown promising results in typical scenarios, demonstrating the ability to generalize across different terrain and tactical situations. Additionally, we explore the system's potential to scale to larger map sizes. The developed system is openly accessible, facilitating continued research and exploration within this challenging domain.
- Abstract(参考訳): HexとCounter Wargamesは、複雑な戦略決定を必要とする実際の軍事紛争の敵対的な2人のプレイヤーシミュレーションである。
古典的なボードゲームとは異なり、これらのゲームは複雑な地形とユニットの相互作用、ユニットの積み重ね、様々なサイズの大きなマップ、数百のユニットを含む同時移動と戦闘の決定を特徴としている。
本稿では,HexとCounter Wargamesの戦略的複雑さに対処するために,Recurrent Neural Networksにおける最先端の進歩を,信頼性の高い現代強化学習アルゴリズムであるAlphaZeroと統合した新しいシステムを提案する。
このシステムは、既存の研究から開発された新しいニューラルネットワークアーキテクチャを活用し、これらの特定のゲーム環境に適した革新的な状態とアクション表現を取り入れている。
最小限のトレーニングで、我々のソリューションは典型的なシナリオで有望な結果を示し、異なる地形や戦術的状況にまたがって一般化する能力を示している。
さらに、より大規模なマップサイズにスケールするシステムの可能性についても検討する。
開発システムは公然とアクセス可能であり、この挑戦的な領域内での継続的な研究と探索を促進する。
関連論文リスト
- Neural Population Learning beyond Symmetric Zero-sum Games [52.20454809055356]
我々はNuPL-JPSROという,スキルの伝達学習の恩恵を受けるニューラル集団学習アルゴリズムを導入し,ゲームの粗相関(CCE)に収束する。
本研究は, 均衡収束型集団学習を大規模かつ汎用的に実施可能であることを示す。
論文 参考訳(メタデータ) (2024-01-10T12:56:24Z) - Learning Decentralized Strategies for a Perimeter Defense Game with
Graph Neural Networks [111.9039128130633]
グラフニューラルネットワークに基づく学習フレームワークを設計し、ディフェンダーのローカル認識と通信グラフからディフェンダーの行動へのマッピングを学習する。
提案するネットワークは,専門家の方針に近づき,より多くの侵入者を捕捉することで,他のベースラインアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-09-24T22:48:51Z) - Learning to Infer Structures of Network Games [22.494985151665205]
観測されたゲーム結果(均衡行動)からネットワーク構造を推定することは、経済学や社会科学における多くの潜在的な応用において重要な問題である。
我々は,問題の対称性を正しく説明し,均衡動作からゲーム内のネットワーク構造へのマッピングをユーティリティ関数の明示的な知識なしに学習するトランスフォーマーのようなアーキテクチャを採用する。
提案手法は,合成データと実世界のデータの両方を用いて3種類のネットワークゲーム上でテストし,ネットワーク構造推定の有効性と既存手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-06-16T12:32:07Z) - On games and simulators as a platform for development of artificial
intelligence for command and control [46.33784995107226]
ゲームやシミュレータは、複雑なマルチエージェント、マルチプレイヤー、不完全な情報シナリオを実行する上で価値のあるプラットフォームである。
StarCraft IIのようなリアルタイム戦略ゲームにおける人工知能アルゴリズムの成功もまた、軍事研究コミュニティの注目を集めている。
論文 参考訳(メタデータ) (2021-10-21T17:39:58Z) - Learning Generative Deception Strategies in Combinatorial Masking Games [27.2744631811653]
詐欺の1つの方法は、システムがどのように構成されているかに関する情報を隠蔽したり、マスキングしたりすることである。
本稿では,攻撃者側がマスクする属性のサブセットを選択するのに対して,攻撃者は攻撃を行うエクスプロイトを選択することで応答する,結果として生じるディフェンダー・アタックラー相互作用のゲーム理論モデルを提案する。
両プレイヤーの戦略をニューラルネットワークとして表現することにより,そのようなゲームを概ね解くための,新しい高度にスケーラブルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-23T20:42:44Z) - Playing Against the Board: Rolling Horizon Evolutionary Algorithms
Against Pandemic [3.223284371460913]
本稿では,短期的リスク軽減と長期的勝利戦略のバランスをとる必要があるため,コラボレーションボードゲームが人工知能に異なる課題をもたらすことを主張する。
本稿では,協調型ボードゲームにおけるパンデミックの例を示し,このゲームに展開する進化的アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-28T09:22:10Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Neural MMO v1.3: A Massively Multiagent Game Environment for Training
and Evaluating Neural Networks [48.5733173329785]
本稿では,MMOにインスパイアされたマルチエージェントゲーム環境であるNeural MMOを紹介する。
分散インフラストラクチャとゲームIOという,AI研究のためのマルチエージェントシステムエンジニアリングにおける,より一般的な2つの課題について論じる。
論文 参考訳(メタデータ) (2020-01-31T18:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。