論文の概要: PCGRL: Procedural Content Generation via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2001.09212v3
- Date: Thu, 13 Aug 2020 02:31:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 04:39:23.838102
- Title: PCGRL: Procedural Content Generation via Reinforcement Learning
- Title(参考訳): PCGRL:強化学習による手続き的コンテンツ生成
- Authors: Ahmed Khalifa, Philip Bontrager, Sam Earle and Julian Togelius
- Abstract要約: ゲームにおけるレベル設計エージェントの訓練に強化学習をどのように利用できるかを検討する。
設計問題をシーケンシャルなタスクと見なすことで、強化学習を使用して次のアクションを取る方法を学ぶことができる。
このアプローチは、トレーニングする例がほとんど、あるいは存在しない場合に使用することができ、トレーニングされたジェネレータは非常に高速である。
- 参考スコア(独自算出の注目度): 6.32656340734423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate how reinforcement learning can be used to train
level-designing agents. This represents a new approach to procedural content
generation in games, where level design is framed as a game, and the content
generator itself is learned. By seeing the design problem as a sequential task,
we can use reinforcement learning to learn how to take the next action so that
the expected final level quality is maximized. This approach can be used when
few or no examples exist to train from, and the trained generator is very fast.
We investigate three different ways of transforming two-dimensional level
design problems into Markov decision processes and apply these to three game
environments.
- Abstract(参考訳): レベル設計エージェントの訓練に強化学習をどのように利用できるかを検討する。
これはゲームにおけるプロシージャコンテンツ生成の新しいアプローチであり、レベル設計はゲームとしてフレーム化され、コンテンツジェネレータ自体が学習される。
設計問題を逐次的タスクと見なすことで、予測される最終レベルの品質を最大化するために、強化学習を用いて次のアクションの取り方を学ぶことができる。
このアプローチは、トレーニング対象のサンプルがほとんど、あるいはまったく存在しない場合に使用でき、トレーニング済みのジェネレータは非常に高速である。
二次元レベル設計問題をマルコフ決定プロセスに変換する3つの異なる方法を検討し,これらを3つのゲーム環境に適用する。
関連論文リスト
- Reconstructing Existing Levels through Level Inpainting [3.1788052710897707]
本稿では、コンテンツ拡張について紹介し、レベルのインペイントのサブプロブレムに焦点を当てる。
本稿では,オートエンコーダとU-netの2つのレベルインペイント手法を提案する。
論文 参考訳(メタデータ) (2023-09-18T04:10:27Z) - Lode Enhancer: Level Co-creation Through Scaling [6.739485960737326]
2Dゲームレベルを作成するコンテキストにおいて、デザイン支援ツールとしてAIを活用したアップスケーリングについて検討する。
ディープニューラルネットワークは、パズルのプラットフォームゲームLode Runnerから、人工的にダウンスケールされたレベルのパッチをスケールアップするために使用される。
論文 参考訳(メタデータ) (2023-08-03T05:23:07Z) - Supervised Pretraining Can Learn In-Context Reinforcement Learning [96.62869749926415]
本稿では,意思決定問題における変換器の文脈内学習能力について検討する。
本稿では,変換器が最適動作を予測する教師付き事前学習法であるDPT(Decision-Pretrained Transformer)を導入,研究する。
事前学習した変換器は、オンラインと保守主義の両方をオフラインで探索することで、コンテキスト内における様々なRL問題の解決に利用できる。
論文 参考訳(メタデータ) (2023-06-26T17:58:50Z) - Combining Evolutionary Search with Behaviour Cloning for Procedurally
Generated Content [2.7412662946127755]
ゲームレベルの手続き的コンテンツ生成の問題について考察する。
従来のアプローチは、多様なレベルを生成することができる進化探索(ES)手法に依存していた。
本稿では,ESとRLの長所を組み合わせた手続き的コンテンツ生成問題に対処する枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-29T16:25:52Z) - SSMTL++: Revisiting Self-Supervised Multi-Task Learning for Video
Anomaly Detection [108.57862846523858]
自己教師型マルチタスク学習フレームワークを再考し、元の手法にいくつかのアップデートを提案する。
マルチヘッド・セルフアテンション・モジュールを導入することで3次元畳み込みバックボーンを近代化する。
モデルをさらに改良するために,セグメントマップの予測などの自己指導型学習タスクについて検討した。
論文 参考訳(メタデータ) (2022-07-16T19:25:41Z) - Learning Neuro-Symbolic Skills for Bilevel Planning [63.388694268198655]
意思決定は、連続したオブジェクト中心の状態、継続的なアクション、長い地平線、まばらなフィードバックを持つロボット環境では難しい。
タスク・アンド・モーション・プランニング(TAMP)のような階層的なアプローチは、意思決定を2つ以上の抽象レベルに分解することでこれらの課題に対処する。
我々の主な貢献は、オペレーターとサンプルラーを組み合わせたパラメータ化警察の学習方法である。
論文 参考訳(メタデータ) (2022-06-21T19:01:19Z) - Silver-Bullet-3D at ManiSkill 2021: Learning-from-Demonstrations and
Heuristic Rule-based Methods for Object Manipulation [118.27432851053335]
本稿では,SAPIEN ManiSkill Challenge 2021: No Interaction Trackにおいて,以下の2つのトラックを対象としたシステムの概要と比較分析を行った。
No Interactionは、事前に収集された実証軌道からの学習ポリシーのターゲットを追跡する。
このトラックでは,タスクを一連のサブタスクに分解することで,高品質なオブジェクト操作をトリガするHuristic Rule-based Method (HRM) を設計する。
各サブタスクに対して、ロボットアームに適用可能なアクションを予測するために、単純なルールベースの制御戦略が採用されている。
論文 参考訳(メタデータ) (2022-06-13T16:20:42Z) - Measuring and Harnessing Transference in Multi-Task Learning [58.48659733262734]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
情報伝達や伝達のダイナミクスを、トレーニングを通して分析する。
論文 参考訳(メタデータ) (2020-10-29T08:25:43Z) - TOAD-GAN: Coherent Style Level Generation from a Single Example [24.039037782220017]
トークンベースのゲームレベルを生成する新しいPCGアルゴリズムであるTOAD-GANを提案する。
スーパーマリオブラザーズレベルへの応用を実証し、任意のサイズで類似したスタイルの新たなレベルを生成することができる。
論文 参考訳(メタデータ) (2020-08-04T13:44:50Z) - Subset Sampling For Progressive Neural Network Learning [106.12874293597754]
プログレッシブニューラルネットワーク学習は、ネットワークのトポロジを漸進的に構築し、トレーニングデータに基づいてパラメータを最適化するアルゴリズムのクラスである。
段階的なトレーニングステップ毎にトレーニングデータのサブセットを活用することで,このプロセスの高速化を提案する。
オブジェクト,シーン,顔の認識における実験結果から,提案手法が最適化手順を大幅に高速化することを示す。
論文 参考訳(メタデータ) (2020-02-17T18:57:33Z) - Learning to Generate Levels From Nothing [5.2508303190856624]
演奏レベルを設計するジェネレーティブ・プレイング・ネットワークを提案する。
このアルゴリズムは、ゲームのレベルを学習するエージェントと、プレイ可能なレベルの分布を学習するジェネレータの2つの部分で構成されている。
本研究では,2次元ダンジョンクローラゲームにおけるエージェントとレベルジェネレータの訓練により,このフレームワークの能力を示す。
論文 参考訳(メタデータ) (2020-02-12T22:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。