論文の概要: Experience-Driven PCG via Reinforcement Learning: A Super Mario Bros
Study
- arxiv url: http://arxiv.org/abs/2106.15877v1
- Date: Wed, 30 Jun 2021 08:10:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 15:36:01.172565
- Title: Experience-Driven PCG via Reinforcement Learning: A Super Mario Bros
Study
- Title(参考訳): 強化学習による体験駆動型pcg:スーパーマリオブラザースによる研究
- Authors: Tianye Shu, Jialin Liu, Georgios N. Yannakakis
- Abstract要約: このフレームワークは、当初スーパーマリオブラザーズゲームでテストされている。
生成の正確性は、ニューラルネットアシスト進化レベル修復器によって保証される。
提案するフレームワークは、無限にプレイ可能なスーパーマリオブラザーズレベルを生成することができる。
- 参考スコア(独自算出の注目度): 2.2215852332444905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a procedural content generation (PCG) framework at the
intersections of experience-driven PCG and PCG via reinforcement learning,
named ED(PCG)RL, EDRL in short. EDRL is able to teach RL designers to generate
endless playable levels in an online manner while respecting particular
experiences for the player as designed in the form of reward functions. The
framework is tested initially in the Super Mario Bros game. In particular, the
RL designers of Super Mario Bros generate and concatenate level segments while
considering the diversity among the segments. The correctness of the generation
is ensured by a neural net-assisted evolutionary level repairer and the
playability of the whole level is determined through AI-based testing. Our
agents in this EDRL implementation learn to maximise a quantification of
Koster's principle of fun by moderating the degree of diversity across level
segments. Moreover, we test their ability to design fun levels that are diverse
over time and playable. Our proposed framework is capable of generating
endless, playable Super Mario Bros levels with varying degrees of fun,
deviation from earlier segments, and playability. EDRL can be generalised to
any game that is built as a segment-based sequential process and features a
built-in compressed representation of its game content.
- Abstract(参考訳): 本稿では,経験駆動型PCGとPCGの交差点に,ED(PCG)RL,略してEDRLという手続き型コンテンツ生成(PCG)フレームワークを導入する。
EDRLはRLデザイナーに、報酬関数の形で設計されたプレイヤーの特定の経験を尊重しながら、オンライン的に無限のプレイ可能なレベルを生成するように教えることができる。
このフレームワークは、当初スーパーマリオブラザーズゲームでテストされている。
特にスーパーマリオブラザーズのrl設計者は、セグメント間の多様性を考慮してレベルセグメントを生成し、結合する。
生成の正確性は、ニューラルネットワーク支援進化レベル修復器によって保証され、AIベースのテストにより、全体のプレイ性を決定する。
このEDRL実装のエージェントは、レベルセグメント間の多様性の度合いを調節することで、コスターの楽しさの原理を最大化することを学ぶ。
さらに、時間とともに多様でプレイ可能な楽しいレベルを設計する能力をテストする。
提案するフレームワークは,エンドレスでプレイ可能なスーパーマリオブラザースレベルを,さまざまな楽しみ度,先行セグメントからの逸脱,プレイ性で生成することができる。
edrlはセグメントベースのシーケンシャルプロセスとして構築され、ゲームコンテンツの圧縮表現を内蔵した任意のゲームに一般化することができる。
関連論文リスト
- PCGRL+: Scaling, Control and Generalization in Reinforcement Learning Level Generators [2.334978724544296]
制御可能なデザイナーエージェントを訓練する手段として,PCGRL (Procedural Content Generation) が導入された。
PCGRLはゲームデザイナーにユニークな余裕を提供するが、RLエージェントを訓練する計算集約的なプロセスによって制約される。
我々はJaxにいくつかのPCGRL環境を実装し、GPU上で学習とシミュレーションのあらゆる側面が並列に行われるようにした。
論文 参考訳(メタデータ) (2024-08-22T16:30:24Z) - A Benchmark Environment for Offline Reinforcement Learning in Racing Games [54.83171948184851]
オフライン強化学習(英語: Offline Reinforcement Learning、ORL)は、従来の強化学習(RL)の高サンプリング複雑さを減らすための有望なアプローチである。
本稿では,ORL研究のための新しい環境であるOfflineManiaを紹介する。
TrackManiaシリーズにインスパイアされ、Unity 3Dゲームエンジンで開発された。
論文 参考訳(メタデータ) (2024-07-12T16:44:03Z) - SPRING: Studying the Paper and Reasoning to Play Games [102.5587155284795]
我々は,ゲーム本来の学術論文を読み取るための新しいアプローチ,SPRINGを提案し,大言語モデル(LLM)を通してゲームの説明とプレイの知識を利用する。
実験では,クラフトオープンワールド環境の設定下で,異なる形態のプロンプトによって引き起こされる文脈内「推論」の品質について検討した。
我々の実験は、LLMが一貫したチェーン・オブ・シークレットによって誘導されると、洗練された高レベル軌道の完成に大きな可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-05-24T18:14:35Z) - Online Game Level Generation from Music [10.903226537887557]
OPARLは経験駆動強化学習と制御可能な強化学習に基づいている。
局所探索とk-アネレスト近傍に基づく新しい制御ポリシーを提案し、レベルジェネレータを制御するためにOPARLに統合した。
シミュレーションに基づく実験の結果、OPARLの実装は、オンライン方式で異なる人工プレーヤーに対する音楽のエネルギーのダイナミクスに適合する難易度で演奏可能なレベルを生成する能力を有することが示された。
論文 参考訳(メタデータ) (2022-07-12T02:44:50Z) - Multi-Game Decision Transformers [49.257185338595434]
そこで本研究では,1つのトランスフォーマーモデルを用いて,最大46個のAtariゲーム群を,人間に近いパフォーマンスで同時にプレイ可能であることを示す。
オンラインやオフラインのRL手法や行動クローンなど,マルチゲーム設定におけるいくつかのアプローチを比較した。
マルチゲーム決定変換モデルは、最高のスケーラビリティとパフォーマンスを提供します。
論文 参考訳(メタデータ) (2022-05-30T16:55:38Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z) - Illuminating Mario Scenes in the Latent Space of a Generative
Adversarial Network [11.055580854275474]
設計者は,我々のシステムにゲームプレイ対策を規定し,様々なレベルのメカニックで高品質な(プレイ可能な)レベルを抽出する方法を示す。
オンラインユーザスタディでは、自動生成されるレベルの異なるメカニズムが、認識される困難さと外観の主観的評価にどのように影響するかが示されている。
論文 参考訳(メタデータ) (2020-07-11T03:38:06Z) - The NetHack Learning Environment [79.06395964379107]
本稿では、強化学習研究のための手続き的に生成されたローグのような環境であるNetHack Learning Environment(NLE)を紹介する。
我々は,NetHackが,探索,計画,技術習得,言語条件付きRLといった問題に対する長期的な研究を促進するのに十分複雑であると主張している。
我々は,分散されたDeep RLベースラインとランダムネットワーク蒸留探索を用いて,ゲームの初期段階における実験的な成功を示す。
論文 参考訳(メタデータ) (2020-06-24T14:12:56Z) - Interactive Evolution and Exploration Within Latent Level-Design Space
of Generative Adversarial Networks [8.091708140619946]
潜在変数進化(LVE)は、最近ゲームレベルに適用されている。
本稿では,ゲーム用タイルベースレベルのインタラクティブなLVEツールを提案する。
このツールは、潜伏次元の直接探索も可能で、ユーザーは発見レベルをプレイできる。
論文 参考訳(メタデータ) (2020-03-31T22:52:17Z) - Controllable Level Blending between Games using Variational Autoencoders [6.217860411034386]
スーパーマリオブラザーズとキッド・イカラスのレベルデータに基づいてVAEをトレーニングし、両方のゲームにまたがる潜伏空間を捕捉できるようにします。
次に、この空間を用いて、両方のゲームからレベルの特性を組み合わせたレベルセグメントを生成する。
これらの余裕は、特に共同創造的レベルの設計にVAEベースのアプローチを適していると我々は主張する。
論文 参考訳(メタデータ) (2020-02-27T01:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。