論文の概要: Evolutionary Approach to Collectible Card Game Arena Deckbuilding using
Active Genes
- arxiv url: http://arxiv.org/abs/2001.01326v2
- Date: Wed, 13 May 2020 12:27:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 07:50:46.636396
- Title: Evolutionary Approach to Collectible Card Game Arena Deckbuilding using
Active Genes
- Title(参考訳): アクティブ遺伝子を用いた集積型カードゲームアリーナデック構築への進化的アプローチ
- Authors: Jakub Kowalski, Rados{\l}aw Miernik
- Abstract要約: アリーナゲームモードでは、各試合に先立って、プレイヤーは以前知らなかった選択肢から1枚ずつデッキ選択カードを組み立てなければならない。
そこで本研究では,遺伝子型の世代別サブシーケンスのみに対する演算子の範囲を減らすために,活性遺伝子の概念を用いた進化的アルゴリズムの変種を提案する。
- 参考スコア(独自算出の注目度): 1.027974860479791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we evolve a card-choice strategy for the arena mode of Legends
of Code and Magic, a programming game inspired by popular collectible card
games like Hearthstone or TES: Legends. In the arena game mode, before each
match, a player has to construct his deck choosing cards one by one from the
previously unknown options. Such a scenario is difficult from the optimization
point of view, as not only the fitness function is non-deterministic, but its
value, even for a given problem instance, is impossible to be calculated
directly and can only be estimated with simulation-based approaches. We propose
a variant of the evolutionary algorithm that uses a concept of an active gene
to reduce the range of the operators only to generation-specific subsequences
of the genotype. Thus, we batched learning process and constrained evolutionary
updates only to the cards relevant for the particular draft, without forgetting
the knowledge from the previous tests. We developed and tested various
implementations of this idea, investigating their performance by taking into
account the computational cost of each variant. Performed experiments show that
some of the introduced active-genes algorithms tend to learn faster and produce
statistically better draft policies than the compared methods.
- Abstract(参考訳): 本稿では,HearthstoneやTES: Legendsなどの人気カードゲームに触発されたプログラミングゲームであるRegends of Code and Magicのアリーナモードにおけるカード選択戦略を進化させる。
アリーナゲームモードでは、各試合前にプレイヤーは、以前知らなかった選択肢から1枚ずつデッキ選択カードを組み立てなければならない。
このようなシナリオは、適応関数が非決定論的であるだけでなく、与えられた問題例であっても直接計算することは不可能であり、シミュレーションに基づくアプローチでのみ推定できるため、最適化の観点からは困難である。
そこで本研究では,遺伝子型の世代別サブシーケンスのみに対する演算子の範囲を減らすために,活性遺伝子の概念を用いた進化的アルゴリズムの変種を提案する。
そこで我々は,学習プロセスのバッチ化と,前回のテストの知識を忘れずに,特定のドラフトに関連するカードにのみ,進化的更新を制約した。
我々は,このアイデアの様々な実装を開発・テストし,各バリエーションの計算コストを考慮し,その性能を検証した。
性能実験により、導入されたアクティブジェネシスアルゴリズムのいくつかは、比較した手法よりも早く学習し、統計的に優れたドラフトポリシーを生成する傾向があることが示された。
関連論文リスト
- Optimizing Hearthstone Agents using an Evolutionary Algorithm [0.0]
本稿では,カードゲーム『Harthstone』をプレイするエージェントの開発に進化的アルゴリズム(EA)を用いることを提案する。
エージェントは競争力のある共進化的トレーニングアプローチによって自己学習を特徴とする。
提案されたアプローチによって開発されたエージェントの1つは、国際ヘースストーン人工知能(AI)コンペティションにおけるランナーアップ(6%)であった。
論文 参考訳(メタデータ) (2024-10-25T16:49:11Z) - Evolutionary Tabletop Game Design: A Case Study in the Risk Game [0.1474723404975345]
本研究は、テーブルトップゲームに対するアプローチの拡張を提案し、リスクの変種を生成することによってプロセスを評価する。
我々は、選択したパラメータを進化させる遺伝的アルゴリズムと、ゲームをテストするルールベースのエージェントを用いてこれを達成した。
結果は、より小さなマップを持つオリジナルゲームの新たなバリエーションが作成され、結果としてより短いマッチとなることを示している。
論文 参考訳(メタデータ) (2023-10-30T20:53:26Z) - No-Regret Learning in Time-Varying Zero-Sum Games [99.86860277006318]
固定ゼロサムゲームにおける繰り返しプレイからの学習は、ゲーム理論とオンライン学習における古典的な問題である。
提案手法は,3つの性能基準の下で,良好な保証を同時に享受できる1つのパラメータフリーアルゴリズムである。
本アルゴリズムは,ある特性を満たすブラックボックスベースラーナー群に対するメタアルゴリズムを用いた2層構造に基づく。
論文 参考訳(メタデータ) (2022-01-30T06:10:04Z) - Spatial State-Action Features for General Games [5.849736173068868]
汎用ゲームのための空間状態対応機能の設計と効率的な実装を定式化する。
これらは、局所的な状態の変数にマッチするかどうかに基づいて、アクションをインセンティブまたは非インセンティブ化するようにトレーニングできるパターンである。
任意の機能セットに対して,アクティブな機能を評価するための効率的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-01-17T13:34:04Z) - Evolving Evaluation Functions for Collectible Card Game AI [1.370633147306388]
本研究は,機能ベースゲーム評価機能の進化における2つの重要な側面について述べる。
ゲノム表現の選択とモデルをテストするために使用される相手の選択について検討した。
私たちは、戦略カードゲームAIコンペティションで使用されるプログラミングゲーム、Regends of Code and Magicで実験をエンコードしました。
論文 参考訳(メタデータ) (2021-05-03T18:39:06Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Efficient Pure Exploration for Combinatorial Bandits with Semi-Bandit
Feedback [51.21673420940346]
コンビナーシャルバンディットはマルチアームバンディットを一般化し、エージェントが腕のセットを選択し、選択したセットに含まれる各腕の騒々しい報酬を観察します。
我々は, 最善の腕を一定の信頼度で識別する純粋爆発問題と, 応答集合の構造が動作集合の1つと異なるような, より一般的な設定に注目する。
有限多面体に対するプロジェクションフリーオンライン学習アルゴリズムに基づいて、凸的に最適であり、競争力のある経験的性能を持つ最初の計算効率の良いアルゴリズムである。
論文 参考訳(メタデータ) (2021-01-21T10:35:09Z) - Faster Algorithms for Optimal Ex-Ante Coordinated Collusive Strategies
in Extensive-Form Zero-Sum Games [123.76716667704625]
我々は,不完全情報ゼロサム拡張形式ゲームにおいて,対戦相手と対決する2人の選手のチームにとって最適な戦略を見つけることの課題に焦点をあてる。
この設定では、チームができる最善のことは、ゲーム開始時の関節(つまり相関した)確率分布から潜在的にランダム化された戦略(プレイヤー1人)のプロファイルをサンプリングすることである。
各プロファイルにランダム化されるのはチームメンバーの1人だけであるプロファイルのみを用いることで、そのような最適な分布を計算するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-09-21T17:51:57Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Efficient exploration of zero-sum stochastic games [83.28949556413717]
ゲームプレイを通じて,ゲームの記述を明示せず,託宣のみにアクセス可能な,重要で一般的なゲーム解決環境について検討する。
限られたデュレーション学習フェーズにおいて、アルゴリズムは両方のプレイヤーのアクションを制御し、ゲームを学習し、それをうまくプレイする方法を学習する。
私たちのモチベーションは、クエリされた戦略プロファイルの支払いを評価するのにコストがかかる状況において、利用可能性の低い戦略を迅速に学習することにあります。
論文 参考訳(メタデータ) (2020-02-24T20:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。