論文の概要: Learning to Generate Levels by Imitating Evolution
- arxiv url: http://arxiv.org/abs/2206.05497v1
- Date: Sat, 11 Jun 2022 10:44:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-19 09:50:07.757257
- Title: Learning to Generate Levels by Imitating Evolution
- Title(参考訳): 進化の模倣によるレベル生成の学習
- Authors: Ahmed Khalifa, Michael Cerny Green, Julian Togelius
- Abstract要約: 機械学習を用いた新しいタイプの反復レベルジェネレータを提案する。
進化過程を模倣するためにモデルをトレーニングし、モデルを使用してレベルを生成します。
このトレーニングされたモデルは、フィットネス機能を必要とせずに、ノイズレベルを逐次修正して、より良いレベルを作ることができる。
- 参考スコア(独自算出の注目度): 7.110423254122942
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Search-based procedural content generation (PCG) is a well-known method used
for level generation in games. Its key advantage is that it is generic and able
to satisfy functional constraints. However, due to the heavy computational
costs to run these algorithms online, search-based PCG is rarely utilized for
real-time generation. In this paper, we introduce a new type of iterative level
generator using machine learning. We train a model to imitate the evolutionary
process and use the model to generate levels. This trained model is able to
modify noisy levels sequentially to create better levels without the need for a
fitness function during inference. We evaluate our trained models on a 2D maze
generation task. We compare several different versions of the method: training
the models either at the end of evolution (normal evolution) or every 100
generations (assisted evolution) and using the model as a mutation function
during evolution. Using the assisted evolution process, the final trained
models are able to generate mazes with a success rate of 99% and high diversity
of 86%. This work opens the door to a new way of learning level generators
guided by the evolutionary process and perhaps will increase the adoption of
search-based PCG in the game industry.
- Abstract(参考訳): 検索ベースの手続き型コンテンツ生成(PCG)はゲームにおけるレベル生成によく用いられる手法である。
その主な利点は、汎用的で、機能的な制約を満たすことができることである。
しかし、これらのアルゴリズムをオンラインで実行するための計算コストが大きいため、検索ベースのPCGがリアルタイムに使用されることは滅多にない。
本稿では,機械学習を用いた新しいタイプの反復レベルジェネレータを提案する。
進化過程を模倣するためにモデルを訓練し、モデルを使ってレベルを生成します。
このトレーニングされたモデルは、推論中にフィットネス機能を必要とせずに、ノイズレベルを逐次修正してより良いレベルを作ることができる。
訓練したモデルを2次元迷路生成タスクで評価する。
進化の終わり(通常の進化)か100世代ごとにモデルを訓練し(進化の支援)、進化の間の突然変異関数としてモデルを使用する。
補助進化プロセスを使用して、最終的な訓練されたモデルは、成功率99%、高い多様性86%の迷路を生成することができる。
この研究は、進化過程によって導かれる新しい学習レベルジェネレータへの扉を開き、おそらくゲーム業界における検索ベースのPCGの採用を増やすだろう。
関連論文リスト
- PCGRL+: Scaling, Control and Generalization in Reinforcement Learning Level Generators [2.334978724544296]
制御可能なデザイナーエージェントを訓練する手段として,PCGRL (Procedural Content Generation) が導入された。
PCGRLはゲームデザイナーにユニークな余裕を提供するが、RLエージェントを訓練する計算集約的なプロセスによって制約される。
我々はJaxにいくつかのPCGRL環境を実装し、GPU上で学習とシミュレーションのあらゆる側面が並列に行われるようにした。
論文 参考訳(メタデータ) (2024-08-22T16:30:24Z) - LVNS-RAVE: Diversified audio generation with RAVE and Latent Vector Novelty Search [0.5624791703748108]
進化的アルゴリズムと生成的深層学習を組み合わせて現実的な音を生成するLVNS-RAVEを提案する。
提案するアルゴリズムは、サウンドアーティストやミュージシャンのための創造的なツールである。
論文 参考訳(メタデータ) (2024-04-22T10:20:41Z) - LLM Guided Evolution - The Automation of Models Advancing Models [0.0]
ガイドド・エボリューション(GE)は、従来の機械学習アプローチから切り離された斬新なフレームワークである。
思想の進化(EoT)は、従来の突然変異の結果からLLMを反映して学習させることでGEを強化する。
ExquisiteNetV2モデルの進化におけるGEの適用は,その有効性を示している。
論文 参考訳(メタデータ) (2024-03-18T03:44:55Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling [69.60713300418467]
ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
論文 参考訳(メタデータ) (2023-05-28T05:38:28Z) - Improving Non-autoregressive Generation with Mixup Training [51.61038444990301]
本稿では,事前学習したトランスモデルに基づく非自己回帰生成モデルを提案する。
我々はMIxソースと擬似ターゲットという,シンプルで効果的な反復訓練手法を提案する。
質問生成,要約,パラフレーズ生成を含む3つの世代ベンチマーク実験により,提案手法が新たな最先端結果を実現することを示す。
論文 参考訳(メタデータ) (2021-10-21T13:04:21Z) - Evolving Evolutionary Algorithms with Patterns [0.0]
このモデルは、MEP(Multi Expression Programming)技術に基づいている。
関数最適化のためのいくつかの進化的アルゴリズムは、考慮されたモデルを用いて進化する。
論文 参考訳(メタデータ) (2021-10-10T16:26:20Z) - Epigenetic evolution of deep convolutional models [81.21462458089142]
我々は、より深い畳み込みモデルを進化させるために、これまで提案されていた神経進化の枠組みを構築した。
異なる形状と大きさのカーネルを同一層内に共存させる畳み込み層配置を提案する。
提案したレイアウトにより、畳み込み層内の個々のカーネルのサイズと形状を、対応する新しい突然変異演算子で進化させることができる。
論文 参考訳(メタデータ) (2021-04-12T12:45:16Z) - AdaLead: A simple and robust adaptive greedy search algorithm for
sequence design [55.41644538483948]
我々は、容易で、拡張性があり、堅牢な進化的欲求アルゴリズム(AdaLead)を開発した。
AdaLeadは、様々な生物学的に動機づけられたシーケンスデザインの課題において、アートアプローチのより複雑な状態を克服する、驚くほど強力なベンチマークである。
論文 参考訳(メタデータ) (2020-10-05T16:40:38Z) - Lineage Evolution Reinforcement Learning [15.469857142001482]
線形進化強化学習は一般エージェント集団学習システムに対応する派生アルゴリズムである。
実験により,アタリ2600のゲームにおいて,系統進化の考え方により,元の強化学習アルゴリズムの性能が向上することが確認された。
論文 参考訳(メタデータ) (2020-09-26T11:58:16Z) - AutoML-Zero: Evolving Machine Learning Algorithms From Scratch [76.83052807776276]
基本数学的操作をビルディングブロックとして使うだけで,完全な機械学習アルゴリズムを自動的に発見できることが示される。
汎用的な検索空間を通じて人間のバイアスを大幅に低減する新しいフレームワークを導入することでこれを実証する。
機械学習アルゴリズムをゼロから発見する上で、これらの予備的な成功は、この分野における有望な新しい方向性を示していると信じている。
論文 参考訳(メタデータ) (2020-03-06T19:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。