論文の概要: A modular framework for automated evaluation of procedural content generation in serious games with deep reinforcement learning agents
- arxiv url: http://arxiv.org/abs/2505.16801v1
- Date: Thu, 22 May 2025 15:40:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.410633
- Title: A modular framework for automated evaluation of procedural content generation in serious games with deep reinforcement learning agents
- Title(参考訳): 深層強化学習エージェントを用いた重度ゲームにおける手続き的コンテンツ生成の自動評価のためのモジュラーフレームワーク
- Authors: Eleftherios Kalafatis, Konstantinos Mitsis, Konstantia Zarkogianni, Maria Athanasiou, Konstantina Nikita,
- Abstract要約: 本研究では,Serious GamesにおけるPCG統合の自動評価手法を提案する。
非プレイヤーキャラクタ(NPC)作成用PCGの3つの異なるバージョンがテストされている。
結果は、バージョン2と3でトレーニングされたDRLゲームテストエージェントが、バージョン1でトレーニングされたエージェントよりも、勝利率とトレーニング時間の点で優れていることを強調している。
- 参考スコア(独自算出の注目度): 0.2796197251957244
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Serious Games (SGs) are nowadays shifting focus to include procedural content generation (PCG) in the development process as a means of offering personalized and enhanced player experience. However, the development of a framework to assess the impact of PCG techniques when integrated into SGs remains particularly challenging. This study proposes a methodology for automated evaluation of PCG integration in SGs, incorporating deep reinforcement learning (DRL) game testing agents. To validate the proposed framework, a previously introduced SG featuring card game mechanics and incorporating three different versions of PCG for nonplayer character (NPC) creation has been deployed. Version 1 features random NPC creation, while versions 2 and 3 utilize a genetic algorithm approach. These versions are used to test the impact of different dynamic SG environments on the proposed framework's agents. The obtained results highlight the superiority of the DRL game testing agents trained on Versions 2 and 3 over those trained on Version 1 in terms of win rate (i.e. number of wins per played games) and training time. More specifically, within the execution of a test emulating regular gameplay, both Versions 2 and 3 peaked at a 97% win rate and achieved statistically significant higher (p=0009) win rates compared to those achieved in Version 1 that peaked at 94%. Overall, results advocate towards the proposed framework's capability to produce meaningful data for the evaluation of procedurally generated content in SGs.
- Abstract(参考訳): 現在、Serious Games(SG)は、パーソナライズされた強化されたプレイヤーエクスペリエンスを提供する手段として、開発プロセスに手続き的コンテンツ生成(PCG)を含むよう焦点をシフトしている。
しかし,PCG技術がSGに統合された場合の影響を評価するフレームワークの開発は,いまだに困難である。
本研究では,深部強化学習(DRL)ゲームテストエージェントを取り入れたPCGのSG統合の自動評価手法を提案する。
提案したフレームワークを検証するため,カードゲーム機構を特徴とするSGと,NPC作成用PCGの3つの異なるバージョンが導入された。
バージョン1はランダムなNPC生成を特徴とし、バージョン2と3は遺伝的アルゴリズムアプローチを使用している。
これらのバージョンは、提案したフレームワークのエージェントに対する異なる動的SG環境の影響をテストするために使用される。
その結果、バージョン2,3でトレーニングされたDRLゲームテストエージェントは、勝利率(プレイゲーム当たりの勝利数)とトレーニング時間において、バージョン1でトレーニングされたエージェントよりも優れていた。
より具体的には、通常のゲームプレイをエミュレートするテストの実行中、バージョン2と3はいずれも97%の勝利率でピークに達し、94%でピークに達したバージョン1と比べて統計的に有意な勝利率(p=0009)を達成した。
全体として、SGの手続き的に生成されたコンテンツを評価するために意味のあるデータを生成するフレームワークの能力を主張する。
関連論文リスト
- Boosting Virtual Agent Learning and Reasoning: A Step-wise, Multi-dimensional, and Generalist Reward Model with Benchmark [72.46357004059661]
ステップワイドな多次元ジェネリスト・リワードモデルであるSimisalを提案する。
エージェントトレーニング用のきめ細かい信号を提供し、推論時間スケーリングのためのより良いアクションを選択することができる。
仮想エージェント領域の最初のベンチマークをステップワイドで多次元の報酬モデルトレーニングと評価のために導入する。
論文 参考訳(メタデータ) (2025-03-24T13:30:47Z) - AVA: Attentive VLM Agent for Mastering StarCraft II [56.07921367623274]
Intentive VLM Agent (AVA) は、人工エージェントの認識と人間のゲームプレイ体験を一致させるマルチモーダルのStarCraft IIエージェントである。
我々のエージェントは、ゲームプレイ中に人間の認知過程をより密にシミュレートするRGB視覚入力と自然言語観察を組み込むことにより、この制限に対処する。
論文 参考訳(メタデータ) (2025-03-07T12:54:25Z) - Improving Retrieval-Augmented Deep Assertion Generation via Joint Training [21.2001651233287]
検索強化された自動アサーション生成手法 AG-RAG を提案する。
AG-RAGは、関連するテスト-アサートペア(TAP)をセマンティックマッチングで検索するために、密集したレトリバーを構築する。
我々はAG-RAGを2つのベンチマークと3つのメトリクスに関する6つの最先端のAGアプローチに対して広範囲に評価する。
論文 参考訳(メタデータ) (2025-02-15T07:02:27Z) - How Far Are We on the Decision-Making of LLMs? Evaluating LLMs' Gaming Ability in Multi-Agent Environments [83.78240828340681]
GAMA($gamma$)-Benchは、マルチエージェント環境における大規模言語モデルのゲーム能力を評価するための新しいフレームワークである。
$gamma$-Benchは8つの古典ゲーム理論シナリオと、LSMの性能を評価するために特別に設計された動的スコアリングスキームを含んでいる。
以上の結果から, GPT-3.5は強い強靭性を示すが, 一般化性は限定的であり, Chain-of-Thoughtのような手法で拡張可能であることが示唆された。
論文 参考訳(メタデータ) (2024-03-18T14:04:47Z) - Two-Step Reinforcement Learning for Multistage Strategy Card Game [0.0]
本研究では,「指輪のロード:カードゲーム(LOTRCG)」に適した2段階強化学習(RL)戦略を紹介する。
本研究は,段階学習アプローチを採用することにより,従来のRL手法から分岐する。
また,異なるRLエージェントがゲームにおける様々な意思決定に使用されるマルチエージェントシステムについても検討した。
論文 参考訳(メタデータ) (2023-11-29T01:31:21Z) - An Analysis of Deep Reinforcement Learning Agents for Text-based Games [4.9702715037812055]
テキストベースのゲーム(TBG)は、ユーザまたはコンピュータエージェントがテキストインタラクションを行い、ゲーム目標を達成する複雑な環境である。
TBGエージェントを標準化した環境での深層学習モジュールの性能を確認し,その性能を異なる評価タイプで検証することが,TBGエージェント研究においても重要である。
我々は,手作りルールのない標準化されたTBGエージェントを構築し,TBG評価タイプを正式に分類し,我々の環境における選択手法を解析した。
論文 参考訳(メタデータ) (2022-09-09T03:36:06Z) - Guiding Generative Language Models for Data Augmentation in Few-Shot
Text Classification [59.698811329287174]
我々は、GPT-2を用いて、分類性能を向上させるために、人工訓練インスタンスを生成する。
実験の結果,少数のラベルインスタンスでGPT-2を微調整すると,一貫した分類精度が向上することがわかった。
論文 参考訳(メタデータ) (2021-11-17T12:10:03Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。