論文の概要: Illuminating the Space of Enemies Through MAP-Elites
- arxiv url: http://arxiv.org/abs/2202.09615v1
- Date: Sat, 19 Feb 2022 14:43:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-26 11:59:06.756838
- Title: Illuminating the Space of Enemies Through MAP-Elites
- Title(参考訳): MAP-Elitesによるゲノム空間のイリュージョン
- Authors: Breno M. F. Viana (1), Leonardo T. Pereira (1), Claudio F. M. Toledo
(1) ((1) Universidade de S\~ao Paulo)
- Abstract要約: アクションアドベンチャーゲームには克服すべきいくつかの課題があり、最も一般的なのは敵である。
本稿では,敵の難易度を目標とする,手続き的に敵を発生させる進化的アプローチの拡張版を紹介する。
我々のアプローチは、MAP-Elites人口を取り入れて、品質を損なうことなく多様な敵を生成することによって、敵の世代研究を進める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Action-Adventure games have several challenges to overcome, where the most
common are enemies. The enemies' goal is to hinder the players' progression by
taking life points, and the way they hinder this progress is distinct for
different kinds of enemies. In this context, this paper introduces an extended
version of an evolutionary approach for procedurally generating enemies that
target the enemy's difficulty as the goal. Our approach advances the enemy
generation research by incorporating a MAP-Elites population to generate
diverse enemies without losing quality. The computational experiment showed the
method converged most enemies in the MAP-Elites in less than a second for most
cases. Besides, we experimented with players who played an Action-Adventure
game prototype with enemies we generated. This experiment showed that the
players enjoyed most levels they played, and we successfully created enemies
perceived as easy, medium, or hard to face.
- Abstract(参考訳): アクションアドベンチャーゲームには克服すべき課題がいくつかある。
敵のゴールは、ライフポイントを取ることでプレイヤーの進行を妨げることであり、彼らがこの進行を妨げる方法は、異なる種類の敵に対して異なるものである。
本稿では,敵の難易度を目標とする,手続き的に敵を発生させる進化的アプローチの拡張版を紹介する。
提案手法は,質を損なうことなく多様な敵を生成できるマップイーライト人口を組み込むことにより,敵生成研究を前進させる。
計算実験では、ほとんどの場合、MAP-Elitesのほとんどの敵を1秒未満で収束させた。
また,敵が生成したアクションアドベンチャーゲームプロトタイプをプレイしたプレイヤーを対象に実験を行った。
この実験は、プレイヤーがプレイしたほとんどのレベルを楽しんだことを示し、我々は敵を容易、中、あるいは対面しにくいと認識することに成功しました。
関連論文リスト
- Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - Off-Beat Multi-Agent Reinforcement Learning [62.833358249873704]
オフビート動作が一般的環境におけるモデルフリーマルチエージェント強化学習(MARL)について検討した。
モデルレスMARLアルゴリズムのための新しいエピソードメモリLeGEMを提案する。
我々は,Stag-Hunter Game,Quarry Game,Afforestation Game,StarCraft IIマイクロマネジメントタスクなど,オフビートアクションを伴うさまざまなマルチエージェントシナリオ上でLeGEMを評価する。
論文 参考訳(メタデータ) (2022-05-27T02:21:04Z) - Illuminating the Space of Dungeon Maps, Locked-door Missions and Enemy
Placement Through MAP-Elites [0.0]
本稿ではMAP-Elites集団を組み込んだ進化的ダンジョン発生器の拡張版を紹介する。
我々のダンジョンレベルは、室内に鍵を掛けたミッションや敵がいるかもしれない部屋と区別される。
ミッションの実現性を確保するため、木構造を通してダンジョンをエンコードしました。
論文 参考訳(メタデータ) (2022-02-18T17:06:04Z) - Multi-Stage Episodic Control for Strategic Exploration in Text Games [16.897326154822135]
本研究は,各エピソードにおいてこれらの2つの戦略を明示的に切り離す多段階アプローチを用いて,探索-vs-exploitジレンマに取り組むことを提案する。
eXploit-Then-eXplore (XTX)と呼ばれる我々のアルゴリズムは、過去の有望な軌跡を模倣したエクスプロイトポリシーを用いて各エピソードを開始する。
提案手法は,Jerrichoベンチマークによる12ゲームの平均正規化スコアを27%,11%向上させた。
論文 参考訳(メタデータ) (2022-01-04T17:19:52Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - L2E: Learning to Exploit Your Opponent [66.66334543946672]
本稿では,暗黙的対向モデリングのための新しい学習フレームワークを提案する。
L2Eは、トレーニング中に異なる相手との対話によって、相手を悪用する能力を取得する。
本稿では, 対戦相手を自動的に生成する新しい対戦相手戦略生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-18T14:27:59Z) - Rank the Episodes: A Simple Approach for Exploration in
Procedurally-Generated Environments [66.80667987347151]
固有の報酬に基づく方法は、しばしば手続き的に生成された環境で不足する。
RAPIDは、手続き的に生成された環境のためのシンプルで効果的なエピソードレベルの探索方法です。
そこで本手法は,MiniGrid環境,MiniWorldの3D Mazeナビゲーションタスク,MuJoCoタスクのスパースについて実証した。
論文 参考訳(メタデータ) (2021-01-20T14:22:01Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Finding Game Levels with the Right Difficulty in a Few Trials through
Intelligent Trial-and-Error [16.297059109611798]
ダイナミックな難易度調整の方法は、ゲームが特定のプレイヤーに調整されてエンゲージメントを最大化することを可能にする。
現在の手法では、相手の難易度やリソースの可利用性など、限られたゲーム機能だけを変更していることが多い。
本稿では,数回の試行で特定の目的の難易度で完全なレベルを生成・探索できる手法を提案する。
論文 参考訳(メタデータ) (2020-05-15T17:48:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。