論文の概要: Estimating player completion rate in mobile puzzle games using
reinforcement learning
- arxiv url: http://arxiv.org/abs/2306.14626v1
- Date: Mon, 26 Jun 2023 12:00:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 13:46:38.112470
- Title: Estimating player completion rate in mobile puzzle games using
reinforcement learning
- Title(参考訳): 強化学習を用いたモバイルパズルゲームにおけるプレイヤー完了率の推定
- Authors: Jeppe Theiss Kristensen, Arturo Valdivia, Paolo Burelli
- Abstract要約: 我々はRLエージェントを訓練し、レベルを達成するために必要な移動数を測定する。
すると、これは実際のプレイヤーの大量のサンプルのレベル完了率と比較される。
プレイヤー完了率の最も高い予測器は、与えられたレベルにおけるエージェントの5%のベストランのレベルを達成するために取られた動きの数である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we investigate whether it is plausible to use the performance of
a reinforcement learning (RL) agent to estimate the difficulty measured as the
player completion rate of different levels in the mobile puzzle game Lily's
Garden.For this purpose we train an RL agent and measure the number of moves
required to complete a level. This is then compared to the level completion
rate of a large sample of real players.We find that the strongest predictor of
player completion rate for a level is the number of moves taken to complete a
level of the ~5% best runs of the agent on a given level. A very interesting
observation is that, while in absolute terms, the agent is unable to reach
human-level performance across all levels, the differences in terms of
behaviour between levels are highly correlated to the differences in human
behaviour. Thus, despite performing sub-par, it is still possible to use the
performance of the agent to estimate, and perhaps further model, player
metrics.
- Abstract(参考訳): 本研究は,モバイルパズルゲームlily's gardenにおいて,異なるレベルのプレイヤー完了率として測定される難易度を推定するために,強化学習(rl)エージェントの性能を利用することができるかを検討することを目的として,rlエージェントを訓練し,レベル完了に必要な動き数を測定する。
これは、実演者の大規模なサンプルのレベル完了率と比較され、あるレベルにおけるプレイヤー完成率の最も強い予測者は、与えられたレベルにおけるエージェントの5%のベストランのレベルを完了するために取られる動きの数である。
非常に興味深い観察は、絶対的な観点では、エージェントは全てのレベルにわたって人間のレベルのパフォーマンスに到達できないが、レベル間の行動の相違は人間の行動の違いと非常に相関しているということである。
したがって、サブパーを実行するにもかかわらず、エージェントのパフォーマンスを使ってプレイヤーのメトリクスを推定し、さらにモデル化することができる。
関連論文リスト
- Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - Behavioural Cloning in VizDoom [1.4999444543328293]
本稿では,Imitation Learning (IL) による自律エージェントのゲーム「Doom 2」の学習方法について述べる。
また,Reinforcement Learning (RL) がカメラの動きと軌跡データを比較することで,人間性に対するILとの比較を行う。
論文 参考訳(メタデータ) (2024-01-08T16:15:43Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Ordinal Regression for Difficulty Estimation of StepMania Levels [18.944506234623862]
我々は,StepManiaレベルの難易度予測タスクを順序回帰(OR)タスクとして定式化し,解析する。
我々は、多くの競争力のあるORモデルと非ORモデルを評価し、ニューラルネットワークベースのモデルが芸術の状態を著しく上回ることを示した。
我々は、トレーニングされたモデルが人間のラベルよりも優れていることを示すユーザー実験で締めくくった。
論文 参考訳(メタデータ) (2023-01-23T15:30:01Z) - Improving Deep Localized Level Analysis: How Game Logs Can Help [0.9645196221785693]
プレイヤー体験を予測するために,深層畳み込みニューラルネットワーク(CNN)を用いて予測に影響を及ぼす新しい改良を提案する。
我々はスーパーマリオブラザーズ(Infinite Mario Bros.)とスーパーマリオブラザーズ(Super Mario Bros.: The Lost Levels (Gwario))に基づいて、我々のアプローチをテストする。
論文 参考訳(メタデータ) (2022-12-07T00:05:16Z) - Mastering the Game of No-Press Diplomacy via Human-Regularized
Reinforcement Learning and Planning [95.78031053296513]
ノープレス外交(No-press Diplomacy)は、協力と競争の両方を含む複雑な戦略ゲームである。
我々は、人間の模倣学習ポリシーに対する報酬最大化ポリシーを規則化する、DiL-piKLと呼ばれる計画アルゴリズムを導入する。
RL-DiL-piKLと呼ばれる自己再生強化学習アルゴリズムに拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T14:47:35Z) - Generating Game Levels of Diverse Behaviour Engagement [2.5739833468005595]
emphSuper Mario Bros.の実験では、異なるペルソナを持つエージェントが同じ評価基準を使用すると、特定のペルソナのレベルが生成されることが示されている。
単純なゲームでは、特定のプレイヤーアーチタイプのゲームプレイングエージェントをレベルテスタとして使用することが、おそらく、さまざまな振る舞いのエンゲージメントを発生させるために必要なすべてであることを意味します。
論文 参考訳(メタデータ) (2022-07-05T15:08:12Z) - Predicting Game Engagement and Difficulty Using AI Players [3.0501851690100277]
本稿では,人間のプレイヤの行動と経験を予測するための自動プレイテスト手法を提案する。
これまで,Deep Reinforcement Learningゲームプレイングエージェントがゲーム難易度とプレイヤーエンゲージメントの両方を予測することが実証されてきた。
モンテカルロ木探索(MCTS)によるDRL向上によるこのアプローチの改善
論文 参考訳(メタデータ) (2021-07-26T09:31:57Z) - From Motor Control to Team Play in Simulated Humanoid Football [56.86144022071756]
我々は、現実的な仮想環境でサッカーをするために、物理的にシミュレートされたヒューマノイドアバターのチームを訓練する。
一連の段階において、プレイヤーはまず、現実的な人間のような動きを実行するために、完全に関節化された身体を制御することを学習する。
その後、ドリブルやシューティングといった中級のサッカーのスキルを身につける。
最後に、彼らは他の人を意識し、チームとしてプレーし、ミリ秒のタイムスケールで低レベルのモーターコントロールのギャップを埋める。
論文 参考訳(メタデータ) (2021-05-25T20:17:10Z) - An Empirical Study on the Generalization Power of Neural Representations
Learned via Visual Guessing Games [79.23847247132345]
本研究は,視覚質問応答(VQA)のような新しいNLP下流タスクにおいて,後から実行を依頼されたとき,人工エージェントが推測ゲームでどの程度の利益を得ることができるかを検討する。
提案手法は,1) エージェントがうまく推理ゲームを模倣することを学習する教師あり学習シナリオ,2) エージェントが単独でプレイする新しい方法,すなわち,反復経験学習(SPIEL)によるセルフプレイ(Self-play)を提案する。
論文 参考訳(メタデータ) (2021-01-31T10:30:48Z) - Multi-Agent Collaboration via Reward Attribution Decomposition [75.36911959491228]
本稿では,StarCraftのマルチエージェントチャレンジにおいて,最先端のパフォーマンスを実現するコラボレーション型Q-ラーニング(CollaQ)を提案する。
CollaQは様々なStarCraft属性マップで評価され、既存の最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-16T17:42:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。