論文の概要: Automated Play-Testing Through RL Based Human-Like Play-Styles
Generation
- arxiv url: http://arxiv.org/abs/2211.17188v1
- Date: Tue, 29 Nov 2022 14:17:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 15:53:49.328327
- Title: Automated Play-Testing Through RL Based Human-Like Play-Styles
Generation
- Title(参考訳): rlベース人間型プレイスタイル生成による自動プレイテスト
- Authors: Pierre Le Pelletier de Woillemont, R\'emi Labory, Vincent Corruble
- Abstract要約: 強化学習は、ビデオゲームのテストを自動化する必要性に対する有望な答えである。
CARMI: aを提示します。
入力として相対測度を持つエージェント。
以前は目に見えないレベルであっても、プレイヤーのプレースタイルをエミュレートできるエージェント。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The increasing complexity of gameplay mechanisms in modern video games is
leading to the emergence of a wider range of ways to play games. The variety of
possible play-styles needs to be anticipated by designers, through automated
tests. Reinforcement Learning is a promising answer to the need of automating
video game testing. To that effect one needs to train an agent to play the
game, while ensuring this agent will generate the same play-styles as the
players in order to give meaningful feedback to the designers. We present
CARMI: a Configurable Agent with Relative Metrics as Input. An agent able to
emulate the players play-styles, even on previously unseen levels. Unlike
current methods it does not rely on having full trajectories, but only summary
data. Moreover it only requires little human data, thus compatible with the
constraints of modern video game production. This novel agent could be used to
investigate behaviors and balancing during the production of a video game with
a realistic amount of training time.
- Abstract(参考訳): 現代のビデオゲームにおけるゲームプレイ機構の複雑さの増加は、ゲームプレイのより広い範囲の方法の出現に繋がる。
様々な可能なプレイスタイルは、自動化されたテストを通じて、デザイナーによって予測される必要があります。
強化学習は、ビデオゲームのテストを自動化する必要性に対する有望な答えである。
この効果を得るためには、デザイナーに有意義なフィードバックを与えるために、エージェントがプレイヤーと同じプレイスタイルを生成することを保証しながら、エージェントをトレーニングする必要がある。
CARMI: パラメータを入力として設定可能なエージェントを提示する。
以前は目に見えないレベルであっても、プレイヤーのプレースタイルをエミュレートできるエージェント。
現在のメソッドとは異なり、完全な軌跡を持つのではなく、要約データのみに依存する。
さらに、人間のデータが少ないため、現代のビデオゲーム生産の制約と互換性がある。
本発明の新規エージェントは,ゲーム製作時の動作やバランスを,現実的なトレーニング時間で調査することができる。
関連論文リスト
- Behavioural Cloning in VizDoom [1.4999444543328293]
本稿では,Imitation Learning (IL) による自律エージェントのゲーム「Doom 2」の学習方法について述べる。
また,Reinforcement Learning (RL) がカメラの動きと軌跡データを比較することで,人間性に対するILとの比較を行う。
論文 参考訳(メタデータ) (2024-01-08T16:15:43Z) - Preference-conditioned Pixel-based AI Agent For Game Testing [1.5059676044537105]
環境とのインタラクションによって学習するゲームテストAIエージェントは、これらの課題を軽減する可能性がある。
本稿では,ユーザの好みに応じて設定された環境を探索しながら,主に画素ベースの状態観測に依存するエージェント設計を提案する。
実AAAゲームにおける多くの側面に類似した複雑なオープンワールド環境において、調査対象とテスト実行品質に対して、我々のエージェントは、最先端の画素ベースのゲームテストエージェントよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-08-18T04:19:36Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Configurable Agent With Reward As Input: A Play-Style Continuum
Generation [0.0]
複数のプレイスタイルを定義するためのゲーム環境を提案する。
次に、幅広いプレイスタイルをシミュレートできる強化学習エージェントであるCARIを紹介する。
論文 参考訳(メタデータ) (2022-11-29T13:59:25Z) - Generative Personas That Behave and Experience Like Humans [3.611888922173257]
生成AIエージェントは、ルール、報酬、または人間のデモンストレーションとして表される特定の演奏行動の模倣を試みる。
我々は、行動手続き的ペルソナの概念をプレイヤー体験に適応させるよう拡張し、プレイヤーが人間のように行動し、経験できる生成エージェントを調べる。
その結果, 生成したエージェントは, 模倣を意図した人物のプレイスタイルや経験的反応を呈することが示唆された。
論文 参考訳(メタデータ) (2022-08-26T12:04:53Z) - Multi-Game Decision Transformers [49.257185338595434]
そこで本研究では,1つのトランスフォーマーモデルを用いて,最大46個のAtariゲーム群を,人間に近いパフォーマンスで同時にプレイ可能であることを示す。
オンラインやオフラインのRL手法や行動クローンなど,マルチゲーム設定におけるいくつかのアプローチを比較した。
マルチゲーム決定変換モデルは、最高のスケーラビリティとパフォーマンスを提供します。
論文 参考訳(メタデータ) (2022-05-30T16:55:38Z) - Teach me to play, gamer! Imitative learning in computer games via
linguistic description of complex phenomena and decision tree [55.41644538483948]
本稿では,複雑な現象の言語記述に基づく模倣による新しい機械学習モデルを提案する。
この手法は,ゲーム開発における知的エージェントの動作を設計し,実装するための優れた代替手段となる。
論文 参考訳(メタデータ) (2021-01-06T21:14:10Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z) - Predicting Game Difficulty and Churn Without Players [0.0]
そこで本研究では,Angry Birds Dream Blastのレベルごとのチャーンとパスレートを予測できる新しいシミュレーションモデルを提案する。
本研究は,DRLゲームプレイによって生成されるプレイヤー行動予測が,個体群レベルでの個体差のシミュレーションによっても大幅に向上できることを実証する。
論文 参考訳(メタデータ) (2020-08-29T08:37:47Z) - Learning from Learners: Adapting Reinforcement Learning Agents to be
Competitive in a Card Game [71.24825724518847]
本稿では,競争力のあるマルチプレイヤーカードゲームの現実的な実装を学習・プレイするために,一般的な強化学習アルゴリズムをどのように適用できるかについて検討する。
本研究は,学習エージェントに対して,エージェントが競争力を持つことの学習方法を評価するための特定のトレーニングと検証ルーチンを提案し,それらが相互の演奏スタイルにどのように適応するかを説明する。
論文 参考訳(メタデータ) (2020-04-08T14:11:05Z) - Model-Based Reinforcement Learning for Atari [89.3039240303797]
エージェントがモデルフリーの手法よりも少ないインタラクションでAtariゲームを解くことができることを示す。
本実験は,エージェントと環境間の100kの相互作用の少ないデータ構造における,AtariゲームにおけるSimPLeの評価である。
論文 参考訳(メタデータ) (2019-03-01T15:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。