論文の概要: Combining Evolutionary Search with Behaviour Cloning for Procedurally
Generated Content
- arxiv url: http://arxiv.org/abs/2207.14772v1
- Date: Fri, 29 Jul 2022 16:25:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 12:42:07.218024
- Title: Combining Evolutionary Search with Behaviour Cloning for Procedurally
Generated Content
- Title(参考訳): 進化的検索と行動クローンを組み合わせる手続き的コンテンツ
- Authors: Nicholas Muir, Steven James
- Abstract要約: ゲームレベルの手続き的コンテンツ生成の問題について考察する。
従来のアプローチは、多様なレベルを生成することができる進化探索(ES)手法に依存していた。
本稿では,ESとRLの長所を組み合わせた手続き的コンテンツ生成問題に対処する枠組みを提案する。
- 参考スコア(独自算出の注目度): 2.7412662946127755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we consider the problem of procedural content generation for
video game levels. Prior approaches have relied on evolutionary search (ES)
methods capable of generating diverse levels, but this generation procedure is
slow, which is problematic in real-time settings. Reinforcement learning (RL)
has also been proposed to tackle the same problem, and while level generation
is fast, training time can be prohibitively expensive. We propose a framework
to tackle the procedural content generation problem that combines the best of
ES and RL. In particular, our approach first uses ES to generate a sequence of
levels evolved over time, and then uses behaviour cloning to distil these
levels into a policy, which can then be queried to produce new levels quickly.
We apply our approach to a maze game and Super Mario Bros, with our results
indicating that our approach does in fact decrease the time required for level
generation, especially when an increasing number of valid levels are required.
- Abstract(参考訳): 本研究では,ゲームレベルの手続き的コンテンツ生成の問題について考察する。
従来のアプローチでは,多様なレベルを生成可能な進化探索(ES)手法に頼っていたが,この生成手順は遅いため,リアルタイム設定では問題となる。
強化学習(RL)も同様の問題に取り組むために提案されており、レベル生成は高速であるが、トレーニング時間は禁断的に高価である。
本稿では,ESとRLの長所を組み合わせた手続き的コンテンツ生成問題に対処する枠組みを提案する。
特に、我々のアプローチではまずESを使用して時間とともに進化した一連のレベルを生成し、次に行動クローニングを使用してこれらのレベルをポリシーに分解します。
我々は迷路ゲームやスーパーマリオブラザーズにアプローチを適用し、その結果、特に有効レベルの増大が要求される場合、我々のアプローチが実際にレベル生成に必要な時間を減少させることを示した。
関連論文リスト
- Hierarchical Reinforcement Learning for Temporal Abstraction of Listwise Recommendation [51.06031200728449]
我々はmccHRLと呼ばれる新しいフレームワークを提案し、リストワイドレコメンデーションにおける時間的抽象化のレベルを異なるものにする。
階層的な枠組みの中では、ハイレベルエージェントがユーザ知覚の進化を研究し、低レベルエージェントがアイテム選択ポリシーを作成している。
その結果,本手法による性能改善は,いくつかのよく知られたベースラインと比較して有意な結果が得られた。
論文 参考訳(メタデータ) (2024-09-11T17:01:06Z) - Zero-Shot Reasoning: Personalized Content Generation Without the Cold Start Problem [0.0]
本稿では,大規模言語モデルを用いてパーソナライズを実現するための新しいアプローチを提案する。
本研究では,個々のプレイヤーから連続的に収集されたゲームプレイデータに基づくレベルを提案する。
本手法は, 従来の手法が生成した生産環境では有効であり, プレイヤーが中間レベルを終了しない確率において, 性能が優れていた。
論文 参考訳(メタデータ) (2024-02-15T17:37:25Z) - Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - Learning to Generate Levels by Imitating Evolution [7.110423254122942]
機械学習を用いた新しいタイプの反復レベルジェネレータを提案する。
進化過程を模倣するためにモデルをトレーニングし、モデルを使用してレベルを生成します。
このトレーニングされたモデルは、フィットネス機能を必要とせずに、ノイズレベルを逐次修正して、より良いレベルを作ることができる。
論文 参考訳(メタデータ) (2022-06-11T10:44:57Z) - Procedural Content Generation using Neuroevolution and Novelty Search
for Diverse Video Game Levels [2.320417845168326]
手続き的に生成されたビデオゲームコンテンツは、ゲーム開発者や大手スタジオのコンテンツ制作予算を大幅に削減する可能性がある。
しかし、採用の妨げとなるのは、遅い生成や品質の低下、コンテンツの多様性といった制限だ。
進化的探索に基づく進化的探索手法を導入し,様々なレベルをリアルタイムでプロシージャ的に生成する手法を提案する。
論文 参考訳(メタデータ) (2022-04-14T12:54:32Z) - HCV: Hierarchy-Consistency Verification for Incremental
Implicitly-Refined Classification [48.68128465443425]
人間は生涯にわたって階層的な知識を学び蓄積する。
現在の漸進的な学習手法には、新しい概念を古い概念に関連付けることによって概念階層を構築する能力がない。
本稿では,既存の継続学習手法の強化を目的とした階層一貫性検証(HCV)を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:54:00Z) - Always Be Dreaming: A New Approach for Data-Free Class-Incremental
Learning [73.24988226158497]
データフリークラスインクリメンタルラーニング(DFCIL)における高インパクト問題について考察する。
そこで本研究では, 改良型クロスエントロピートレーニングと重要重み付き特徴蒸留に寄与するDFCILの新たなインクリメンタル蒸留戦略を提案する。
本手法は,共通クラスインクリメンタルベンチマークにおけるSOTA DFCIL法と比較して,最終タスク精度(絶対差)が25.1%向上する。
論文 参考訳(メタデータ) (2021-06-17T17:56:08Z) - Text Generation with Efficient (Soft) Q-Learning [91.47743595382758]
強化学習(RL)は、任意のタスクメトリクスを報酬としてプラグインすることで、より柔軟なソリューションを提供する。
ソフトQ-ラーニングの観点からテキスト生成のための新しいRL式を導入する。
雑音/負の例から学習し、敵攻撃、即時生成など、幅広いタスクにアプローチを適用する。
論文 参考訳(メタデータ) (2021-06-14T18:48:40Z) - Level Generation for Angry Birds with Sequential VAE and Latent Variable
Evolution [25.262831218008202]
我々は,Angry Birdsのゲームドメインに対して,深部生成モデルに基づくレベル生成を開発する。
実験により,提案したレベルジェネレータは生成レベルの安定性と多様性を大幅に改善することが示された。
論文 参考訳(メタデータ) (2021-04-13T11:23:39Z) - Phase Retrieval using Expectation Consistent Signal Recovery Algorithm
based on Hypernetwork [73.94896986868146]
位相検索は現代の計算イメージングシステムにおいて重要な要素である。
近年のディープラーニングの進歩は、堅牢で高速なPRの新たな可能性を開いた。
我々は、既存の制限を克服するために、深層展開のための新しいフレームワークを開発する。
論文 参考訳(メタデータ) (2021-01-12T08:36:23Z) - PCGRL: Procedural Content Generation via Reinforcement Learning [6.32656340734423]
ゲームにおけるレベル設計エージェントの訓練に強化学習をどのように利用できるかを検討する。
設計問題をシーケンシャルなタスクと見なすことで、強化学習を使用して次のアクションを取る方法を学ぶことができる。
このアプローチは、トレーニングする例がほとんど、あるいは存在しない場合に使用することができ、トレーニングされたジェネレータは非常に高速である。
論文 参考訳(メタデータ) (2020-01-24T22:09:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。