論文の概要: Level Assembly as a Markov Decision Process
- arxiv url: http://arxiv.org/abs/2304.13922v1
- Date: Thu, 27 Apr 2023 02:15:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 14:35:31.196233
- Title: Level Assembly as a Markov Decision Process
- Title(参考訳): マルコフ決定過程としてのレベルアセンブリ
- Authors: Colan F. Biemer and Seth Cooper
- Abstract要約: 多くのゲームは、プレイヤーに適応しないレベルの進行を特徴としている。
進行が難しい場合は、一部のプレイヤーが立ち往生してしまう可能性があるため、これは問題となる可能性がある。
これは、プレイヤーのパフォーマンスと好みに基づいたレベルを構築することで対処できる。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many games feature a progression of levels that doesn't adapt to the player.
This can be problematic because some players may get stuck if the progression
is too difficult, while others may find it boring if the progression is too
slow to get to more challenging levels. This can be addressed by building
levels based on the player's performance and preferences. In this work, we
formulate the problem of generating levels for a player as a Markov Decision
Process (MDP) and use adaptive dynamic programming (ADP) to solve the MDP
before assembling a level. We tested with two case studies and found that using
an ADP outperforms two baselines. Furthermore, we experimented with player
proxies and switched them in the middle of play, and we show that a simple
modification prior to running ADP results in quick adaptation. By using ADP,
which searches the entire MDP, we produce a dynamic progression of levels that
adapts to the player.
- Abstract(参考訳): 多くのゲームでは、プレイヤーに適応しないレベルが進行している。
進行が難しすぎると立ち往生してしまう選手もいれば、進行が遅すぎると退屈な選手もいるので、これは問題となる可能性がある。
これは、プレイヤーのパフォーマンスと好みに基づいたレベルを構築することで対処できる。
本研究では、マルコフ決定過程(MDP)としてプレイヤーのレベルを生成する問題を定式化し、適応動的プログラミング(ADP)を用いてレベルを組み立てる前にMDPを解決する。
2つのケーススタディでADPの使用が2つのベースラインを上回っていることを確認した。
さらに, プレイヤープロキシを実験し, プレイ途中に切り替えた結果, ADPを走らせる前に簡単な修正を行った結果, 迅速な適応が得られた。
MDP全体を検索するADPを使用することで、プレイヤーに適応するレベルの動的進行を生成する。
関連論文リスト
- Continuous Reinforcement Learning-based Dynamic Difficulty Adjustment in
a Visual Working Memory Game [5.857929080874288]
強化学習(Reinforcement Learning, RL)法は、非競合ゲームにおける動的難易度調整(DDA)に用いられている。
本稿では,複雑な検索空間を記憶の難しさに対処するために,視覚的ワーキングメモリ(VWM)ゲームのための連続的なRLベースのDDA手法を提案する。
論文 参考訳(メタデータ) (2023-08-24T12:05:46Z) - Estimating player completion rate in mobile puzzle games using
reinforcement learning [0.0]
我々はRLエージェントを訓練し、レベルを達成するために必要な移動数を測定する。
すると、これは実際のプレイヤーの大量のサンプルのレベル完了率と比較される。
プレイヤー完了率の最も高い予測器は、与えられたレベルにおけるエージェントの5%のベストランのレベルを達成するために取られた動きの数である。
論文 参考訳(メタデータ) (2023-06-26T12:00:05Z) - Personalized Game Difficulty Prediction Using Factorization Machines [0.9558392439655011]
コンテンツレコメンデーションからの手法を借りて,ゲームレベルのパーソナライズした難易度推定に寄与する。
我々は、プレイヤーが将来のゲームレベルを通過させるのに必要な試行回数と、他のプレイヤーがプレイする以前のレベルの試行回数に基づいて、難易度を予測することができる。
この結果から,FMはゲームデザイナーがプレイヤー体験を最適化し,プレイヤーとゲームについてより深く学ぶことができる,有望なツールであることが示唆された。
論文 参考訳(メタデータ) (2022-09-06T08:03:46Z) - Off-Beat Multi-Agent Reinforcement Learning [62.833358249873704]
オフビート動作が一般的環境におけるモデルフリーマルチエージェント強化学習(MARL)について検討した。
モデルレスMARLアルゴリズムのための新しいエピソードメモリLeGEMを提案する。
我々は,Stag-Hunter Game,Quarry Game,Afforestation Game,StarCraft IIマイクロマネジメントタスクなど,オフビートアクションを伴うさまざまなマルチエージェントシナリオ上でLeGEMを評価する。
論文 参考訳(メタデータ) (2022-05-27T02:21:04Z) - Semi-Markov Offline Reinforcement Learning for Healthcare [57.15307499843254]
本稿では,SDQN,SDDQN,SBCQという3つのオフラインRLアルゴリズムを紹介する。
変動時間環境において,これらのアルゴリズムのみが最適ポリシーを学習できることを実験的に実証した。
我々は,脳卒中予防のためのウォーファリン投与に関連する実世界のオフラインデータセットに,我々の新しいアルゴリズムを適用した。
論文 参考訳(メタデータ) (2022-03-17T14:51:21Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - Predicting Game Difficulty and Churn Without Players [0.0]
そこで本研究では,Angry Birds Dream Blastのレベルごとのチャーンとパスレートを予測できる新しいシミュレーションモデルを提案する。
本研究は,DRLゲームプレイによって生成されるプレイヤー行動予測が,個体群レベルでの個体差のシミュレーションによっても大幅に向上できることを実証する。
論文 参考訳(メタデータ) (2020-08-29T08:37:47Z) - Finding Game Levels with the Right Difficulty in a Few Trials through
Intelligent Trial-and-Error [16.297059109611798]
ダイナミックな難易度調整の方法は、ゲームが特定のプレイヤーに調整されてエンゲージメントを最大化することを可能にする。
現在の手法では、相手の難易度やリソースの可利用性など、限られたゲーム機能だけを変更していることが多い。
本稿では,数回の試行で特定の目的の難易度で完全なレベルを生成・探索できる手法を提案する。
論文 参考訳(メタデータ) (2020-05-15T17:48:18Z) - Exploration-Exploitation in Constrained MDPs [79.23623305214275]
拘束マルコフ決定過程(CMDP)における探索・探索ジレンマについて検討する。
未知のCMDPで学習している間、エージェントは、MDPに関する新しい情報を見つけるために、トレードオフ探索を行う必要がある。
エージェントは最終的に良い方針や最適な方針を学習するが、学習プロセス中にエージェントが制約に過度に違反することを望まない。
論文 参考訳(メタデータ) (2020-03-04T17:03:56Z) - Hierarchically Decoupled Imitation for Morphological Transfer [95.19299356298876]
形態学的に単純なエージェントから学習情報を転送することで、より複雑なエージェントのサンプル効率を大幅に向上させることができることを示す。
まず、より単純なエージェントの低レベルを模倣するために複雑なエージェントの低レベルをインセンティブ化すると、ゼロショット高レベル転送が大幅に改善されることを示す。
第2に,高レベルのKL正規化学習が学習を安定させ,モデム崩壊を防ぐことを示す。
論文 参考訳(メタデータ) (2020-03-03T18:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。