論文の概要: Adapting Procedural Content Generation to Player Personas Through
Evolution
- arxiv url: http://arxiv.org/abs/2112.04406v1
- Date: Tue, 7 Dec 2021 16:26:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 04:09:58.187160
- Title: Adapting Procedural Content Generation to Player Personas Through
Evolution
- Title(参考訳): 進化を通してプレイヤーペルソナに手続き的コンテンツ生成を適用する
- Authors: Pedro M. Fernandes, Jonathan J{\o}rgensen, Niels N. T. G. Poldervaart
- Abstract要約: 本稿では,ペルソナエージェントと経験指標を用いて,特定のプレイヤーペルソナに適したプロシージャ生成レベルの進化を可能にするアーキテクチャを提案する。
ゲームである"Grave Rave"を用いて、このアプローチが3つの異なるエクスペリエンス指標よりも4つのルールベースのペルソナエージェントに適応できることを実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatically adapting game content to players opens new doors for game
development. In this paper we propose an architecture using persona agents and
experience metrics, which enables evolving procedurally generated levels
tailored for particular player personas. Using our game, "Grave Rave", we
demonstrate that this approach successfully adapts to four rule-based persona
agents over three different experience metrics. Furthermore, the adaptation is
shown to be specific in nature, meaning that the levels are persona-conscious,
and not just general optimizations with regard to the selected metric.
- Abstract(参考訳): ゲームコンテンツをプレイヤーに自動的に適応させると、ゲーム開発のための新しいドアが開く。
本稿では,ペルソナエージェントと経験指標を用いたアーキテクチャを提案する。
というゲームを使って、このアプローチが3つの異なる経験指標に対して4つのルールベースのペルソナエージェントにうまく適応できることを実証しました。
さらに、適応性は自然に特異的であることが示され、つまり、レベルはペルソナ意識であり、選択されたメトリックに関する一般的な最適化だけではない。
関連論文リスト
- Evolutionary Tabletop Game Design: A Case Study in the Risk Game [0.1474723404975345]
本研究は、テーブルトップゲームに対するアプローチの拡張を提案し、リスクの変種を生成することによってプロセスを評価する。
我々は、選択したパラメータを進化させる遺伝的アルゴリズムと、ゲームをテストするルールベースのエージェントを用いてこれを達成した。
結果は、より小さなマップを持つオリジナルゲームの新たなバリエーションが作成され、結果としてより短いマッチとなることを示している。
論文 参考訳(メタデータ) (2023-10-30T20:53:26Z) - Personalized Game Difficulty Prediction Using Factorization Machines [0.9558392439655011]
コンテンツレコメンデーションからの手法を借りて,ゲームレベルのパーソナライズした難易度推定に寄与する。
我々は、プレイヤーが将来のゲームレベルを通過させるのに必要な試行回数と、他のプレイヤーがプレイする以前のレベルの試行回数に基づいて、難易度を予測することができる。
この結果から,FMはゲームデザイナーがプレイヤー体験を最適化し,プレイヤーとゲームについてより深く学ぶことができる,有望なツールであることが示唆された。
論文 参考訳(メタデータ) (2022-09-06T08:03:46Z) - Generating Game Levels of Diverse Behaviour Engagement [2.5739833468005595]
emphSuper Mario Bros.の実験では、異なるペルソナを持つエージェントが同じ評価基準を使用すると、特定のペルソナのレベルが生成されることが示されている。
単純なゲームでは、特定のプレイヤーアーチタイプのゲームプレイングエージェントをレベルテスタとして使用することが、おそらく、さまざまな振る舞いのエンゲージメントを発生させるために必要なすべてであることを意味します。
論文 参考訳(メタデータ) (2022-07-05T15:08:12Z) - Multi-Game Decision Transformers [49.257185338595434]
そこで本研究では,1つのトランスフォーマーモデルを用いて,最大46個のAtariゲーム群を,人間に近いパフォーマンスで同時にプレイ可能であることを示す。
オンラインやオフラインのRL手法や行動クローンなど,マルチゲーム設定におけるいくつかのアプローチを比較した。
マルチゲーム決定変換モデルは、最高のスケーラビリティとパフォーマンスを提供します。
論文 参考訳(メタデータ) (2022-05-30T16:55:38Z) - Persona-driven Dominant/Submissive Map (PDSM) Generation for Tutorials [5.791285538179053]
本稿では,自動ペルソナ駆動型ビデオゲームチュートリアルレベル生成手法を提案する。
手続き的ペルソナを用いて進化するレベルの行動特性を計算する。
この研究の中で、生成された地図は、異なるペルソナのような振る舞いを強く促したり、妨げたりする可能性があることを示す。
論文 参考訳(メタデータ) (2022-04-11T16:01:48Z) - Coach-Player Multi-Agent Reinforcement Learning for Dynamic Team
Composition [88.26752130107259]
現実世界のマルチエージェントシステムでは、異なる能力を持つエージェントがチーム全体の目標を変更することなく参加または離脱する可能性がある。
この問題に取り組むコーチ・プレイヤー・フレームワーク「COPA」を提案します。
1)コーチと選手の両方の注意メカニズムを採用し、2)学習を正規化するための変動目標を提案し、3)コーチが選手とのコミュニケーションのタイミングを決定するための適応的なコミュニケーション方法を設計する。
論文 参考訳(メタデータ) (2021-05-18T17:27:37Z) - Policy Fusion for Adaptive and Customizable Reinforcement Learning
Agents [137.86426963572214]
異なる行動政策を結合して有意義な「融合」政策を得る方法を示す。
事前学習されたポリシーを組み合わせるための4つの異なるポリシー融合手法を提案する。
これらの手法がゲーム制作や設計に実際どのように役立つのか,実例とユースケースをいくつか紹介する。
論文 参考訳(メタデータ) (2021-04-21T16:08:44Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - Illuminating Mario Scenes in the Latent Space of a Generative
Adversarial Network [11.055580854275474]
設計者は,我々のシステムにゲームプレイ対策を規定し,様々なレベルのメカニックで高品質な(プレイ可能な)レベルを抽出する方法を示す。
オンラインユーザスタディでは、自動生成されるレベルの異なるメカニズムが、認識される困難さと外観の主観的評価にどのように影響するかが示されている。
論文 参考訳(メタデータ) (2020-07-11T03:38:06Z) - Learning from Learners: Adapting Reinforcement Learning Agents to be
Competitive in a Card Game [71.24825724518847]
本稿では,競争力のあるマルチプレイヤーカードゲームの現実的な実装を学習・プレイするために,一般的な強化学習アルゴリズムをどのように適用できるかについて検討する。
本研究は,学習エージェントに対して,エージェントが競争力を持つことの学習方法を評価するための特定のトレーニングと検証ルーチンを提案し,それらが相互の演奏スタイルにどのように適応するかを説明する。
論文 参考訳(メタデータ) (2020-04-08T14:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。