論文の概要: Predicting Game Difficulty and Churn Without Players
- arxiv url: http://arxiv.org/abs/2008.12937v1
- Date: Sat, 29 Aug 2020 08:37:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 17:22:37.784354
- Title: Predicting Game Difficulty and Churn Without Players
- Title(参考訳): プレイヤーのいないゲーム難易度とチャーン予測
- Authors: Shaghayegh Roohi (1), Asko Relas (2), Jari Takatalo (2), Henri
Heiskanen (2), Perttu H\"am\"al\"ainen (1) ((1) Aalto University, Espoo,
Finland, (2) Rovio Entertainment, Espoo, Finland)
- Abstract要約: そこで本研究では,Angry Birds Dream Blastのレベルごとのチャーンとパスレートを予測できる新しいシミュレーションモデルを提案する。
本研究は,DRLゲームプレイによって生成されるプレイヤー行動予測が,個体群レベルでの個体差のシミュレーションによっても大幅に向上できることを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel simulation model that is able to predict the per-level
churn and pass rates of Angry Birds Dream Blast, a popular mobile free-to-play
game. Our primary contribution is to combine AI gameplay using Deep
Reinforcement Learning (DRL) with a simulation of how the player population
evolves over the levels. The AI players predict level difficulty, which is used
to drive a player population model with simulated skill, persistence, and
boredom. This allows us to model, e.g., how less persistent and skilled players
are more sensitive to high difficulty, and how such players churn early, which
makes the player population and the relation between difficulty and churn
evolve level by level. Our work demonstrates that player behavior predictions
produced by DRL gameplay can be significantly improved by even a very simple
population-level simulation of individual player differences, without requiring
costly retraining of agents or collecting new DRL gameplay data for each
simulated player.
- Abstract(参考訳): 本研究では,人気のモバイルゲームであるangry birds dream blastのレベル毎のチャーンとパスレートを予測できる新しいシミュレーションモデルを提案する。
我々の主な貢献は、Deep Reinforcement Learning (DRL) を用いたAIゲームプレイと、プレイヤーの集団がレベルを超えてどのように進化するかのシミュレーションを組み合わせることである。
aiプレイヤーは、スキル、永続性、退屈さをシミュレートしたプレイヤー人口モデルを駆動するために使用されるレベル困難を予測する。
これにより、例えば、持続性や熟練の選手が高難易度に対していかに敏感であるか、そして、そのようなプレイヤーが早期にどのように混乱するかをモデル化できるため、プレイヤーの人口と難易度の関係はレベルごとに進化する。
本研究は,DRLゲームプレイによって生成されるプレイヤーの行動予測を,エージェントの再学習やシミュレーションされた各プレイヤーに対する新たなDRLゲームプレイデータ収集を必要とせず,極めて単純な個体差シミュレーションによって大幅に改善できることを実証する。
関連論文リスト
- Personalized Dynamic Difficulty Adjustment -- Imitation Learning Meets Reinforcement Learning [44.99833362998488]
本研究では,機械学習をベースとしたエージェントを用いて,現在の動作に基づいてプレイヤーに挑戦するゲーム難易度について検討する。
これは2つのエージェントの組み合わせによって達成され、1つはプレイヤーを模倣することを学び、もう1つは1つを倒すように訓練される。
本稿では,対戦ゲームAIコンペティションにおけるAIエージェントの動的難易度調整のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T11:24:12Z) - Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - Behavioural Cloning in VizDoom [1.4999444543328293]
本稿では,Imitation Learning (IL) による自律エージェントのゲーム「Doom 2」の学習方法について述べる。
また,Reinforcement Learning (RL) がカメラの動きと軌跡データを比較することで,人間性に対するILとの比較を行う。
論文 参考訳(メタデータ) (2024-01-08T16:15:43Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Automated Play-Testing Through RL Based Human-Like Play-Styles
Generation [0.0]
強化学習は、ビデオゲームのテストを自動化する必要性に対する有望な答えである。
CARMI: aを提示します。
入力として相対測度を持つエージェント。
以前は目に見えないレベルであっても、プレイヤーのプレースタイルをエミュレートできるエージェント。
論文 参考訳(メタデータ) (2022-11-29T14:17:20Z) - Mastering the Game of No-Press Diplomacy via Human-Regularized
Reinforcement Learning and Planning [95.78031053296513]
ノープレス外交(No-press Diplomacy)は、協力と競争の両方を含む複雑な戦略ゲームである。
我々は、人間の模倣学習ポリシーに対する報酬最大化ポリシーを規則化する、DiL-piKLと呼ばれる計画アルゴリズムを導入する。
RL-DiL-piKLと呼ばれる自己再生強化学習アルゴリズムに拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T14:47:35Z) - Generative Personas That Behave and Experience Like Humans [3.611888922173257]
生成AIエージェントは、ルール、報酬、または人間のデモンストレーションとして表される特定の演奏行動の模倣を試みる。
我々は、行動手続き的ペルソナの概念をプレイヤー体験に適応させるよう拡張し、プレイヤーが人間のように行動し、経験できる生成エージェントを調べる。
その結果, 生成したエージェントは, 模倣を意図した人物のプレイスタイルや経験的反応を呈することが示唆された。
論文 参考訳(メタデータ) (2022-08-26T12:04:53Z) - Predicting Game Engagement and Difficulty Using AI Players [3.0501851690100277]
本稿では,人間のプレイヤの行動と経験を予測するための自動プレイテスト手法を提案する。
これまで,Deep Reinforcement Learningゲームプレイングエージェントがゲーム難易度とプレイヤーエンゲージメントの両方を予測することが実証されてきた。
モンテカルロ木探索(MCTS)によるDRL向上によるこのアプローチの改善
論文 参考訳(メタデータ) (2021-07-26T09:31:57Z) - Neural MMO v1.3: A Massively Multiagent Game Environment for Training
and Evaluating Neural Networks [48.5733173329785]
本稿では,MMOにインスパイアされたマルチエージェントゲーム環境であるNeural MMOを紹介する。
分散インフラストラクチャとゲームIOという,AI研究のためのマルチエージェントシステムエンジニアリングにおける,より一般的な2つの課題について論じる。
論文 参考訳(メタデータ) (2020-01-31T18:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。