論文の概要: Generating Diverse and Competitive Play-Styles for Strategy Games
- arxiv url: http://arxiv.org/abs/2104.08641v1
- Date: Sat, 17 Apr 2021 20:33:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 06:20:50.417395
- Title: Generating Diverse and Competitive Play-Styles for Strategy Games
- Title(参考訳): 戦略ゲームのための多様で競争的なプレイスタイルの生成
- Authors: Diego Perez-Liebana, Cristina Guerrero-Romero, Alexander Dockhorn,
Dominik Jeurissen, Linjie Xu
- Abstract要約: ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
- 参考スコア(独自算出の注目度): 58.896302717975445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Designing agents that are able to achieve different play-styles while
maintaining a competitive level of play is a difficult task, especially for
games for which the research community has not found super-human performance
yet, like strategy games. These require the AI to deal with large action
spaces, long-term planning and partial observability, among other well-known
factors that make decision-making a hard problem. On top of this, achieving
distinct play-styles using a general algorithm without reducing playing
strength is not trivial. In this paper, we propose Portfolio Monte Carlo Tree
Search with Progressive Unpruning for playing a turn-based strategy game
(Tribes) and show how it can be parameterized so a quality-diversity algorithm
(MAP-Elites) is used to achieve different play-styles while keeping a
competitive level of play. Our results show that this algorithm is capable of
achieving these goals even for an extensive collection of game levels beyond
those used for training.
- Abstract(参考訳): 競争的なプレイレベルを維持しながら異なるプレイスタイルを達成できるエージェントを設計することは、特に研究コミュニティが戦略ゲームのような超人的なパフォーマンスをまだ見ていないゲームでは難しい作業である。
これらはAIが大きな行動空間、長期計画、部分的な観測可能性を扱うことを必要とし、意思決定が困難な問題となっている。
さらに, 演奏強度を低下させることなく, 汎用アルゴリズムを用いて異なる演奏スタイルを実現することは容易ではない。
本稿では,ターンベースの戦略ゲーム (Tribes) を行うために,Portfolio Monte Carlo Tree Search with Progressive Unpruningを提案する。
以上の結果から,本アルゴリズムは,トレーニング用以上のゲームレベルを幅広く収集した場合でも,これらの目標を達成することができることがわかった。
関連論文リスト
- Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - Mastering Strategy Card Game (Legends of Code and Magic) via End-to-End
Policy and Optimistic Smooth Fictitious Play [11.480308614644041]
我々は、2段階の戦略カードゲーム「Regends of Code and Magic」を研究する。
マルチステージゲームにおける難題を解決するために,エンド・ツー・エンドのポリシーを提案する。
私たちのアプローチはCOG2022コンペティションの2連覇です。
論文 参考訳(メタデータ) (2023-03-07T17:55:28Z) - On the Power of Refined Skat Selection [1.3706331473063877]
Skatは魅力的なカードゲームで、現代のAIシステムの本質的な課題の多くを示しています。
洗練されたskat評価機能に基づくハードエキスパートルールとスコアリング関数を提案する。
実験では、精巧なskat pingアルゴリズムがボットの演奏性能に与える影響を強調した。
論文 参考訳(メタデータ) (2021-04-07T08:54:58Z) - Playing Against the Board: Rolling Horizon Evolutionary Algorithms
Against Pandemic [3.223284371460913]
本稿では,短期的リスク軽減と長期的勝利戦略のバランスをとる必要があるため,コラボレーションボードゲームが人工知能に異なる課題をもたらすことを主張する。
本稿では,協調型ボードゲームにおけるパンデミックの例を示し,このゲームに展開する進化的アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-28T09:22:10Z) - Learning to Play Imperfect-Information Games by Imitating an Oracle
Planner [77.67437357688316]
我々は、同時移動と大規模なステートアクションスペースでマルチプレイヤーの不完全な情報ゲームをプレイする学習を検討します。
我々のアプローチはモデルに基づく計画に基づいている。
我々は,Clash Royale と Pommerman のゲームにおいて,プランナーが効率的なプレイ戦略を発見することができることを示す。
論文 参考訳(メタデータ) (2020-12-22T17:29:57Z) - The Design Of "Stratega": A General Strategy Games Framework [62.997667081978825]
Strategaはターンベースおよびリアルタイム戦略ゲームを作成するためのフレームワークである。
このフレームワークは、統計的フォワードプランニング(SFP)エージェントに焦点を当てて構築されている。
我々は,このフレームワークとそのエージェントの開発が,戦略ゲームにおける複雑な意思決定プロセスの理解に役立つことを願っている。
論文 参考訳(メタデータ) (2020-09-11T20:02:00Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Strategies for Using Proximal Policy Optimization in Mobile Puzzle Games [0.0]
本研究は, カジュアルなモバイルパズルゲームにおいて, 人気のRL手法であるPPO(Proximal Policy Optimization)の適用戦略を調査し, 評価する。
我々は,現実のモバイルパズルゲームに対して,さまざまな戦略を実装し,テストしてきた。
このゲームジャンルにおけるアルゴリズムのより安定した動作を保証するためのいくつかの戦略を特定した。
論文 参考訳(メタデータ) (2020-07-03T08:03:45Z) - Efficient exploration of zero-sum stochastic games [83.28949556413717]
ゲームプレイを通じて,ゲームの記述を明示せず,託宣のみにアクセス可能な,重要で一般的なゲーム解決環境について検討する。
限られたデュレーション学習フェーズにおいて、アルゴリズムは両方のプレイヤーのアクションを制御し、ゲームを学習し、それをうまくプレイする方法を学習する。
私たちのモチベーションは、クエリされた戦略プロファイルの支払いを評価するのにコストがかかる状況において、利用可能性の低い戦略を迅速に学習することにあります。
論文 参考訳(メタデータ) (2020-02-24T20:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。