論文の概要: Mixed-Initiative Level Design with RL Brush
- arxiv url: http://arxiv.org/abs/2008.02778v3
- Date: Thu, 25 Feb 2021 20:18:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 06:53:37.215919
- Title: Mixed-Initiative Level Design with RL Brush
- Title(参考訳): RLブラシを用いた混合開始レベル設計
- Authors: Omar Delarosa, Hang Dong, Mindy Ruan, Ahmed Khalifa, Julian Togelius
- Abstract要約: 本稿では,混合開始型コクリエーション用に設計されたタイルベースのゲームのためのレベル編集ツールであるRL Brushを紹介する。
このツールは、強化学習に基づくモデルを使用して、AI生成の提案を追加することで、手動の人間レベルの設計を強化する。
- 参考スコア(独自算出の注目度): 8.979403815167178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces RL Brush, a level-editing tool for tile-based games
designed for mixed-initiative co-creation. The tool uses
reinforcement-learning-based models to augment manual human level-design
through the addition of AI-generated suggestions. Here, we apply RL Brush to
designing levels for the classic puzzle game Sokoban. We put the tool online
and tested it in 39 different sessions. The results show that users using the
AI suggestions stay around longer and their created levels on average are more
playable and more complex than without.
- Abstract(参考訳): 本稿では,混合創造のためのタイル型ゲームのためのレベル編集ツールであるrl brushを紹介する。
このツールは、強化学習に基づくモデルを使用して、AI生成の提案を追加することで、手動の人間レベルの設計を強化する。
本稿では,古典パズルゲームSokobanの設計レベルにRL Brushを適用する。
ツールをオンラインで公開し、39のセッションでテストしました。
結果から,aiサジェストを使用するユーザはより長く留まり,生成したレベルは平均して遊べるようになり,より複雑になることがわかった。
関連論文リスト
- A Benchmark Environment for Offline Reinforcement Learning in Racing Games [54.83171948184851]
オフライン強化学習(英語: Offline Reinforcement Learning、ORL)は、従来の強化学習(RL)の高サンプリング複雑さを減らすための有望なアプローチである。
本稿では,ORL研究のための新しい環境であるOfflineManiaを紹介する。
TrackManiaシリーズにインスパイアされ、Unity 3Dゲームエンジンで開発された。
論文 参考訳(メタデータ) (2024-07-12T16:44:03Z) - Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - Lode Enhancer: Level Co-creation Through Scaling [6.739485960737326]
2Dゲームレベルを作成するコンテキストにおいて、デザイン支援ツールとしてAIを活用したアップスケーリングについて検討する。
ディープニューラルネットワークは、パズルのプラットフォームゲームLode Runnerから、人工的にダウンスケールされたレベルのパッチをスケールアップするために使用される。
論文 参考訳(メタデータ) (2023-08-03T05:23:07Z) - Balancing of competitive two-player Game Levels with Reinforcement
Learning [0.2793095554369281]
我々は最近導入されたPCGRLフレームワーク内でタイルベースレベルの自動バランスのためのアーキテクチャを提案する。
アーキテクチャは,(1)レベルジェネレータ,(2)バランスエージェント,(3)報酬モデルシミュレーションの3つの部分に分けられる。
提案手法は,従来のPCGRLよりもバランスを良く,かつ高速にするために,エージェントにレベルを変更する方法を教えることができることを示す。
論文 参考訳(メタデータ) (2023-06-07T13:40:20Z) - Automated Graph Genetic Algorithm based Puzzle Validation for Faster
Game Desig [69.02688684221265]
本稿では,コンピュータゲームにおける論理パズルを効率的に解くための進化的アルゴリズムを提案する。
制約満足度問題に対するハイブリッド遺伝的アプローチの様々なバリエーションについて論じる。
論文 参考訳(メタデータ) (2023-02-17T18:15:33Z) - ElegantRL-Podracer: Scalable and Elastic Library for Cloud-Native Deep
Reinforcement Learning [141.58588761593955]
クラウドネイティブな深層強化学習のためのライブラリElegantRL-podracerを提案する。
数百万のコアを効率的にサポートし、複数のレベルで大規模な並列トレーニングを実行する。
低レベルでは、各ポッドは1つのGPUで7,000近いGPUコアをフル活用することで、エージェントと環境のインタラクションを並列にシミュレートする。
論文 参考訳(メタデータ) (2021-12-11T06:31:21Z) - Experience-Driven PCG via Reinforcement Learning: A Super Mario Bros
Study [2.2215852332444905]
このフレームワークは、当初スーパーマリオブラザーズゲームでテストされている。
生成の正確性は、ニューラルネットアシスト進化レベル修復器によって保証される。
提案するフレームワークは、無限にプレイ可能なスーパーマリオブラザーズレベルを生成することができる。
論文 参考訳(メタデータ) (2021-06-30T08:10:45Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - The NetHack Learning Environment [79.06395964379107]
本稿では、強化学習研究のための手続き的に生成されたローグのような環境であるNetHack Learning Environment(NLE)を紹介する。
我々は,NetHackが,探索,計画,技術習得,言語条件付きRLといった問題に対する長期的な研究を促進するのに十分複雑であると主張している。
我々は,分散されたDeep RLベースラインとランダムネットワーク蒸留探索を用いて,ゲームの初期段階における実験的な成功を示す。
論文 参考訳(メタデータ) (2020-06-24T14:12:56Z) - Interactive Evolution and Exploration Within Latent Level-Design Space
of Generative Adversarial Networks [8.091708140619946]
潜在変数進化(LVE)は、最近ゲームレベルに適用されている。
本稿では,ゲーム用タイルベースレベルのインタラクティブなLVEツールを提案する。
このツールは、潜伏次元の直接探索も可能で、ユーザーは発見レベルをプレイできる。
論文 参考訳(メタデータ) (2020-03-31T22:52:17Z) - Controllable Level Blending between Games using Variational Autoencoders [6.217860411034386]
スーパーマリオブラザーズとキッド・イカラスのレベルデータに基づいてVAEをトレーニングし、両方のゲームにまたがる潜伏空間を捕捉できるようにします。
次に、この空間を用いて、両方のゲームからレベルの特性を組み合わせたレベルセグメントを生成する。
これらの余裕は、特に共同創造的レベルの設計にVAEベースのアプローチを適していると我々は主張する。
論文 参考訳(メタデータ) (2020-02-27T01:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。