論文の概要: Finding Game Levels with the Right Difficulty in a Few Trials through
Intelligent Trial-and-Error
- arxiv url: http://arxiv.org/abs/2005.07677v2
- Date: Thu, 25 Jun 2020 12:55:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 22:34:30.542489
- Title: Finding Game Levels with the Right Difficulty in a Few Trials through
Intelligent Trial-and-Error
- Title(参考訳): 知的試行錯誤による数回の試行において正しい難易度を持つゲームレベルを見つける
- Authors: Miguel Gonz\'alez-Duque, Rasmus Berg Palm, David Ha, Sebastian Risi
- Abstract要約: ダイナミックな難易度調整の方法は、ゲームが特定のプレイヤーに調整されてエンゲージメントを最大化することを可能にする。
現在の手法では、相手の難易度やリソースの可利用性など、限られたゲーム機能だけを変更していることが多い。
本稿では,数回の試行で特定の目的の難易度で完全なレベルを生成・探索できる手法を提案する。
- 参考スコア(独自算出の注目度): 16.297059109611798
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Methods for dynamic difficulty adjustment allow games to be tailored to
particular players to maximize their engagement. However, current methods often
only modify a limited set of game features such as the difficulty of the
opponents, or the availability of resources. Other approaches, such as
experience-driven Procedural Content Generation (PCG), can generate complete
levels with desired properties such as levels that are neither too hard nor too
easy, but require many iterations. This paper presents a method that can
generate and search for complete levels with a specific target difficulty in
only a few trials. This advance is enabled by through an Intelligent
Trial-and-Error algorithm, originally developed to allow robots to adapt
quickly. Our algorithm first creates a large variety of different levels that
vary across predefined dimensions such as leniency or map coverage. The
performance of an AI playing agent on these maps gives a proxy for how
difficult the level would be for another AI agent (e.g. one that employs Monte
Carlo Tree Search instead of Greedy Tree Search); using this information, a
Bayesian Optimization procedure is deployed, updating the difficulty of the
prior map to reflect the ability of the agent. The approach can reliably find
levels with a specific target difficulty for a variety of planning agents in
only a few trials, while maintaining an understanding of their skill landscape.
- Abstract(参考訳): ダイナミックな難易度調整の方法は、ゲームが特定のプレイヤーにカスタマイズされ、エンゲージメントを最大化することができる。
しかし、現在の手法では、対戦相手の難易度や資源の入手性など、限られたゲームの特徴のみを変更することが多い。
経験駆動型手続き型コンテンツ生成(PCG)のような他のアプローチは、困難でも簡単でも、多くのイテレーションを必要とするレベルなど、望ましい特性を持つ完全なレベルを生成することができる。
本稿では,数回の試行で特定の目的の難易度で完全なレベルを生成・探索できる手法を提案する。
この進歩は、ロボットが素早く適応できるように開発されたインテリジェントな試行錯誤アルゴリズムによって実現されている。
我々のアルゴリズムはまず、冗長性やマップカバレッジなど、予め定義された次元によって異なる様々なレベルを生成する。
これらのマップ上でAIプレイングエージェントのパフォーマンスは、他のAIエージェント(例えば、グレディツリーサーチの代わりにモンテカルロツリーサーチを採用するもの)がどの程度難しいかのプロキシを提供する。
このアプローチは、彼らのスキルの状況を理解しながら、ほんの数回の試行で、さまざまな計画エージェントにとって、特定の目標の難易度を持つレベルを確実に見つけることができる。
関連論文リスト
- Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - Monte-Carlo Tree Search for Multi-Agent Pathfinding: Preliminary Results [60.4817465598352]
マルチエージェントパスフィンディングに適したモンテカルロ木探索(MCTS)のオリジナル版を紹介する。
具体的には,エージェントの目標達成行動を支援するために,個別の経路を用いる。
また,木探索手順の分岐係数を低減するために,専用の分解手法を用いる。
論文 参考訳(メタデータ) (2023-07-25T12:33:53Z) - Personalized Game Difficulty Prediction Using Factorization Machines [0.9558392439655011]
コンテンツレコメンデーションからの手法を借りて,ゲームレベルのパーソナライズした難易度推定に寄与する。
我々は、プレイヤーが将来のゲームレベルを通過させるのに必要な試行回数と、他のプレイヤーがプレイする以前のレベルの試行回数に基づいて、難易度を予測することができる。
この結果から,FMはゲームデザイナーがプレイヤー体験を最適化し,プレイヤーとゲームについてより深く学ぶことができる,有望なツールであることが示唆された。
論文 参考訳(メタデータ) (2022-09-06T08:03:46Z) - Persona-driven Dominant/Submissive Map (PDSM) Generation for Tutorials [5.791285538179053]
本稿では,自動ペルソナ駆動型ビデオゲームチュートリアルレベル生成手法を提案する。
手続き的ペルソナを用いて進化するレベルの行動特性を計算する。
この研究の中で、生成された地図は、異なるペルソナのような振る舞いを強く促したり、妨げたりする可能性があることを示す。
論文 参考訳(メタデータ) (2022-04-11T16:01:48Z) - Towards Objective Metrics for Procedurally Generated Video Game Levels [2.320417845168326]
シミュレーションに基づく評価指標を2つ導入し, 生成レベルの多様性と難易度を測定した。
我々の多様性指標は、現在の方法よりも、レベルサイズや表現の変化に対して堅牢であることを示す。
難易度基準は、テスト済みのドメインの1つで既存の難易度推定と相関するが、他のドメインではいくつかの課題に直面している。
論文 参考訳(メタデータ) (2022-01-25T14:13:50Z) - CommonsenseQA 2.0: Exposing the Limits of AI through Gamification [126.85096257968414]
現代自然言語理解モデルの能力をテストするベンチマークを構築した。
本研究では,データ構築の枠組みとしてゲーミフィケーションを提案する。
論文 参考訳(メタデータ) (2022-01-14T06:49:15Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Learning to Play Imperfect-Information Games by Imitating an Oracle
Planner [77.67437357688316]
我々は、同時移動と大規模なステートアクションスペースでマルチプレイヤーの不完全な情報ゲームをプレイする学習を検討します。
我々のアプローチはモデルに基づく計画に基づいている。
我々は,Clash Royale と Pommerman のゲームにおいて,プランナーが効率的なプレイ戦略を発見することができることを示す。
論文 参考訳(メタデータ) (2020-12-22T17:29:57Z) - Efficient exploration of zero-sum stochastic games [83.28949556413717]
ゲームプレイを通じて,ゲームの記述を明示せず,託宣のみにアクセス可能な,重要で一般的なゲーム解決環境について検討する。
限られたデュレーション学習フェーズにおいて、アルゴリズムは両方のプレイヤーのアクションを制御し、ゲームを学習し、それをうまくプレイする方法を学習する。
私たちのモチベーションは、クエリされた戦略プロファイルの支払いを評価するのにコストがかかる状況において、利用可能性の低い戦略を迅速に学習することにあります。
論文 参考訳(メタデータ) (2020-02-24T20:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。