論文の概要: Playtesting: What is Beyond Personas
- arxiv url: http://arxiv.org/abs/2107.11965v1
- Date: Mon, 26 Jul 2021 05:23:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 23:26:33.482757
- Title: Playtesting: What is Beyond Personas
- Title(参考訳): Playtesting: ペルソナを越えたもの
- Authors: Sinan Ariyurek, Elif Surer, Aysu Betin-Can
- Abstract要約: 自動プレイテストを改善するための2つの方法を提案する。
まず,開発ペルソナと呼ばれる目標に基づくペルソナモデルを提案する。
第2に、代替経路ファインダ(APF)を用いた代替経路を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Playtesting is an essential step in the game design process. Game designers
use the feedback from playtests to refine their design. Game designers may
employ procedural personas to automate the playtesting process. In this paper,
we present two approaches to improve automated playtesting. First, we propose a
goal-based persona model, which we call developing persona -- developing
persona proposes a dynamic persona model, whereas the current persona models
are static. Game designers can use the developing persona to model the changes
that a player undergoes while playing a game. Additionally, a human playtester
knows which paths she has tested before, and during the consequent tests, she
may test different paths. However, RL agents disregard the previously generated
trajectories. We propose a novel methodology that helps Reinforcement Learning
(RL) agents to generate distinct trajectories than the previous trajectories.
We refer to this methodology as Alternative Path Finder (APF). We present a
generic APF framework that can be applied to all RL agents. APF is trained with
the previous trajectories, and APF distinguishes the novel states from similar
states. We use the General Video Game Artificial Intelligence (GVG-AI) and
VizDoom frameworks to test our proposed methodologies. We use Proximal Policy
Optimization (PPO) RL agent during experiments. First, we show that the
playtest data generated by the developing persona cannot be generated using the
procedural personas. Second, we present the alternative paths found using APF.
We show that the APF penalizes the previous paths and rewards the distinct
paths.
- Abstract(参考訳): プレイテストはゲーム設計プロセスにおいて不可欠なステップです。
ゲームデザイナーはplaytestsからのフィードバックを使ってデザインを洗練します。
ゲームデザイナーはプレイテストのプロセスを自動化するために手続き型ペルソナを用いることができる。
本稿では,自動プレイテストを改善するための2つのアプローチを提案する。
まず,私たちがペルソナ開発と呼ぶ目標ベースのペルソナモデルを提案する。ペルソナ開発はダイナミックなペルソナモデルを提案するが,現在のペルソナモデルは静的である。
ゲームデザイナーは、プレイヤーがゲーム中に行う変化をモデル化するために開発ペルソナを使用することができる。
さらに、人間のプレイテスタは、以前にテストしたパスを知っており、そのテストの間、異なるパスをテストできる。
しかし、RL剤は以前に生成された軌道を無視する。
本稿では,強化学習 (rl) エージェントが従来と異なる軌跡を生成するための新しい手法を提案する。
本手法を代替経路ファインダ(APF)と呼ぶ。
本稿では,全てのRLエージェントに適用可能な汎用APFフレームワークを提案する。
APFは以前の軌道で訓練され、APFは新しい状態と類似した状態とを区別する。
我々は、提案手法をテストするために、General Video Game Artificial Intelligence(GVG-AI)とVizDoomフレームワークを使用する。
実験ではPPO (Proximal Policy Optimization) RLエージェントを用いた。
まず,開発ペルソナによって生成されたプレイテストデータは,手続きペルソナを用いて生成できないことを示す。
第2に,APFを用いた代替経路を提案する。
我々は、APFが以前のパスを罰し、異なるパスに報いることを示す。
関連論文リスト
- Behavioural Cloning in VizDoom [1.4999444543328293]
本稿では,Imitation Learning (IL) による自律エージェントのゲーム「Doom 2」の学習方法について述べる。
また,Reinforcement Learning (RL) がカメラの動きと軌跡データを比較することで,人間性に対するILとの比較を行う。
論文 参考訳(メタデータ) (2024-01-08T16:15:43Z) - Mechanic Maker 2.0: Reinforcement Learning for Evaluating Generated
Rules [5.9135869246353305]
ルール生成のための人間遊びの近似器として強化学習の適用について検討する。
従来のAGD環境であるMechanic Maker in Unityを,新たなオープンソースルール生成フレームワークとして再現する。
論文 参考訳(メタデータ) (2023-09-18T04:15:09Z) - Automated Play-Testing Through RL Based Human-Like Play-Styles
Generation [0.0]
強化学習は、ビデオゲームのテストを自動化する必要性に対する有望な答えである。
CARMI: aを提示します。
入力として相対測度を持つエージェント。
以前は目に見えないレベルであっても、プレイヤーのプレースタイルをエミュレートできるエージェント。
論文 参考訳(メタデータ) (2022-11-29T14:17:20Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - Generative Personas That Behave and Experience Like Humans [3.611888922173257]
生成AIエージェントは、ルール、報酬、または人間のデモンストレーションとして表される特定の演奏行動の模倣を試みる。
我々は、行動手続き的ペルソナの概念をプレイヤー体験に適応させるよう拡張し、プレイヤーが人間のように行動し、経験できる生成エージェントを調べる。
その結果, 生成したエージェントは, 模倣を意図した人物のプレイスタイルや経験的反応を呈することが示唆された。
論文 参考訳(メタデータ) (2022-08-26T12:04:53Z) - Reward Uncertainty for Exploration in Preference-based Reinforcement
Learning [88.34958680436552]
好みに基づく強化学習アルゴリズムを対象とした探索手法を提案する。
我々の基本的な考え方は、学習した報酬に基づいて、斬新さを測定することによって、本質的な報酬を設計することである。
実験により、学習報酬の不確実性からの探索ボーナスは、好みに基づくRLアルゴリズムのフィードバック効率とサンプル効率の両方を改善することが示された。
論文 参考訳(メタデータ) (2022-05-24T23:22:10Z) - TiKick: Toward Playing Multi-agent Football Full Games from Single-agent
Demonstrations [31.596018856092513]
Tikickは、マルチエージェントのGoogle Research Footballのフルゲームを引き継ぐことができる、学習ベースのAIシステムである。
私たちの知る限りでは、Tikickは、マルチエージェントのGoogle Research Footballのフルゲームを引き継ぐことができる、初めての学習ベースのAIシステムだ。
論文 参考訳(メタデータ) (2021-10-09T08:34:58Z) - Teach me to play, gamer! Imitative learning in computer games via
linguistic description of complex phenomena and decision tree [55.41644538483948]
本稿では,複雑な現象の言語記述に基づく模倣による新しい機械学習モデルを提案する。
この手法は,ゲーム開発における知的エージェントの動作を設計し,実装するための優れた代替手段となる。
論文 参考訳(メタデータ) (2021-01-06T21:14:10Z) - Learning to Run with Potential-Based Reward Shaping and Demonstrations
from Video Data [70.540936204654]
「走ることを学ぶ」競技は、二本足のヒューマノイドボディを最高速度で模擬レースコースで走るように訓練することであった。
すべての提出者は、強化学習(RL)へのタブラララサアプローチを採り入れ、比較的速いが最適な実行動作は得られなかった。
本研究では,人間のランニング映像から得られるデータを用いて,ヒューマノイド学習エージェントの報酬を形成できることを示す。
論文 参考訳(メタデータ) (2020-12-16T09:46:58Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。