論文の概要: State Representation and Polyomino Placement for the Game Patchwork
- arxiv url: http://arxiv.org/abs/2001.04233v1
- Date: Mon, 13 Jan 2020 13:29:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 23:06:03.372732
- Title: State Representation and Polyomino Placement for the Game Patchwork
- Title(参考訳): ゲームパッチワークにおける状態表現とポリオミノ配置
- Authors: Mikael Zayenz Lagerkvist
- Abstract要約: 本稿では,ポリオミノタイルのドラフトと配置を用いた2人のプレイヤー戦略ゲームであるPatchworkについて検討する。
コアポリオミノ配置力学は規則的制約を用いた制約モデルで実装される。
グローバルな伝播誘導後悔が紹介され、後続の配置を除外しないことに基づいて配置が選択される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Modern board games are a rich source of entertainment for many people, but
also contain interesting and challenging structures for game playing research
and implementing game playing agents. This paper studies the game Patchwork, a
two player strategy game using polyomino tile drafting and placement. The core
polyomino placement mechanic is implemented in a constraint model using regular
constraints, extending and improving the model in (Lagerkvist, Pesant, 2008)
with: explicit rotation handling; optional placements; and new constraints for
resource usage. Crucial for implementing good game playing agents is to have
great heuristics for guiding the search when faced with large branching
factors. This paper divides placing tiles into two parts: a policy used for
placing parts and an evaluation used to select among different placements.
Policies are designed based on classical packing literature as well as common
standard constraint programming heuristics. For evaluation, global propagation
guided regret is introduced, choosing placements based on not ruling out later
placements. Extensive evaluations are performed, showing the importance of
using a good evaluation and that the proposed global propagation guided regret
is a very effective guide.
- Abstract(参考訳): 現代のボードゲームは多くの人にとってリッチな娯楽の源であるが、ゲームプレイの研究やゲームプレイエージェントの実装のための興味深い挑戦的な構造も含んでいる。
本稿では,polyomino tile drafting と placement を用いた2人戦略ゲーム game patchwork について検討する。
コアポリオミノ配置メカニックは、規則的な制約を用いて制約モデルに実装され、(lagerkvist, pesant, 2008)におけるモデルを拡張および改善する: 明示的なローテーションハンドリング、任意の配置、リソース使用のための新しい制約。
優れたゲームプレイエージェントを実装する上で重要なのは、大きな分岐要因に直面した時に探索を導くための優れたヒューリスティックを持つことです。
本論文では, タイルの配置を, 部品を配置するための方針と, 異なる配置で選択する評価の2つに分けた。
ポリシーは古典的なパッキング文献と一般的な標準制約プログラミングヒューリスティックに基づいて設計されている。
評価のために、グローバルな伝播誘導後悔を導入し、後続の配置を除外しないことに基づく配置を選択する。
良好な評価を行うことの重要性と,提案したグローバルな伝播誘導後悔が極めて効果的な指針であることを示す。
関連論文リスト
- Evolutionary Tabletop Game Design: A Case Study in the Risk Game [0.1474723404975345]
本研究は、テーブルトップゲームに対するアプローチの拡張を提案し、リスクの変種を生成することによってプロセスを評価する。
我々は、選択したパラメータを進化させる遺伝的アルゴリズムと、ゲームをテストするルールベースのエージェントを用いてこれを達成した。
結果は、より小さなマップを持つオリジナルゲームの新たなバリエーションが作成され、結果としてより短いマッチとなることを示している。
論文 参考訳(メタデータ) (2023-10-30T20:53:26Z) - Preference-conditioned Pixel-based AI Agent For Game Testing [1.5059676044537105]
環境とのインタラクションによって学習するゲームテストAIエージェントは、これらの課題を軽減する可能性がある。
本稿では,ユーザの好みに応じて設定された環境を探索しながら,主に画素ベースの状態観測に依存するエージェント設計を提案する。
実AAAゲームにおける多くの側面に類似した複雑なオープンワールド環境において、調査対象とテスト実行品質に対して、我々のエージェントは、最先端の画素ベースのゲームテストエージェントよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-08-18T04:19:36Z) - Provably Efficient Fictitious Play Policy Optimization for Zero-Sum
Markov Games with Structured Transitions [145.54544979467872]
本研究では,ゼロサムマルコフゲームに対して,構造的だが未知の遷移を伴う架空のプレイポリシー最適化アルゴリズムを提案し,解析する。
我々は、2年制の競争ゲームシナリオで、$K$のエピソードに続き、$widetildemathcalO(sqrtK)$ regret boundsを証明した。
提案アルゴリズムは,アッパー信頼境界(UCB)型最適化と,同時政策最適化の範囲内での架空のプレイの組み合わせを特徴とする。
論文 参考訳(メタデータ) (2022-07-25T18:29:16Z) - Spatial State-Action Features for General Games [5.849736173068868]
汎用ゲームのための空間状態対応機能の設計と効率的な実装を定式化する。
これらは、局所的な状態の変数にマッチするかどうかに基づいて、アクションをインセンティブまたは非インセンティブ化するようにトレーニングできるパターンである。
任意の機能セットに対して,アクティブな機能を評価するための効率的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-01-17T13:34:04Z) - Portfolio Search and Optimization for General Strategy Game-Playing [58.896302717975445]
ローリングホライズン進化アルゴリズムに基づく最適化とアクション選択のための新しいアルゴリズムを提案する。
エージェントのパラメータとポートフォリオセットの最適化について,N-tuple Bandit Evolutionary Algorithmを用いて検討する。
エージェントの性能分析により,提案手法はすべてのゲームモードによく一般化し,他のポートフォリオ手法よりも優れることが示された。
論文 参考訳(メタデータ) (2021-04-21T09:28:28Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - The Design Of "Stratega": A General Strategy Games Framework [62.997667081978825]
Strategaはターンベースおよびリアルタイム戦略ゲームを作成するためのフレームワークである。
このフレームワークは、統計的フォワードプランニング(SFP)エージェントに焦点を当てて構築されている。
我々は,このフレームワークとそのエージェントの開発が,戦略ゲームにおける複雑な意思決定プロセスの理解に役立つことを願っている。
論文 参考訳(メタデータ) (2020-09-11T20:02:00Z) - Efficient exploration of zero-sum stochastic games [83.28949556413717]
ゲームプレイを通じて,ゲームの記述を明示せず,託宣のみにアクセス可能な,重要で一般的なゲーム解決環境について検討する。
限られたデュレーション学習フェーズにおいて、アルゴリズムは両方のプレイヤーのアクションを制御し、ゲームを学習し、それをうまくプレイする方法を学習する。
私たちのモチベーションは、クエリされた戦略プロファイルの支払いを評価するのにコストがかかる状況において、利用可能性の低い戦略を迅速に学習することにあります。
論文 参考訳(メタデータ) (2020-02-24T20:30:38Z) - Offline Grid-Based Coverage path planning for guards in games [0.0]
本稿では,2次元多角形(穴のある)領域をカバーする新しいアルゴリズムを提案する。
単純なレイアウトから、実際のゲームで使用されるより複雑なマップまで、いくつかのシナリオに関する実験的分析は、優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-01-15T18:28:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。