論文の概要: MarioGPT: Open-Ended Text2Level Generation through Large Language Models
- arxiv url: http://arxiv.org/abs/2302.05981v1
- Date: Sun, 12 Feb 2023 19:12:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 17:30:27.001158
- Title: MarioGPT: Open-Ended Text2Level Generation through Large Language Models
- Title(参考訳): MarioGPT: 大規模言語モデルによるオープンソースのText2Level生成
- Authors: Shyam Sudhakaran, Miguel Gonz\'alez-Duque, Claire Glanois, Matthias
Freiberger, Elias Najarro, Sebastian Risi
- Abstract要約: タイルベースのゲームレベルを生成するために訓練された細調整GPT2モデルであるMarioGPTを紹介する。
我々は,MarioGPTが多様なレベルを生成できるだけでなく,制御可能なレベル生成のためにテキストをプロンプできることを示す。
- 参考スコア(独自算出の注目度): 9.87407154597402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Procedural Content Generation (PCG) algorithms provide a technique to
generate complex and diverse environments in an automated way. However, while
generating content with PCG methods is often straightforward, generating
meaningful content that reflects specific intentions and constraints remains
challenging. Furthermore, many PCG algorithms lack the ability to generate
content in an open-ended manner. Recently, Large Language Models (LLMs) have
shown to be incredibly effective in many diverse domains. These trained LLMs
can be fine-tuned, re-using information and accelerating training for new
tasks. In this work, we introduce MarioGPT, a fine-tuned GPT2 model trained to
generate tile-based game levels, in our case Super Mario Bros levels. We show
that MarioGPT can not only generate diverse levels, but can be text-prompted
for controllable level generation, addressing one of the key challenges of
current PCG techniques. As far as we know, MarioGPT is the first text-to-level
model. We also combine MarioGPT with novelty search, enabling it to generate
diverse levels with varying play-style dynamics (i.e. player paths). This
combination allows for the open-ended generation of an increasingly diverse
range of content.
- Abstract(参考訳): 手続き型コンテンツ生成(PCG)アルゴリズムは、複雑で多様な環境を自動生成する技術を提供する。
しかし、PCGメソッドでコンテンツを生成することは多くの場合簡単であるが、特定の意図や制約を反映した意味のあるコンテンツを生成することは困難である。
さらに、多くのPCGアルゴリズムは、オープンな方法でコンテンツを生成する能力に欠ける。
最近、Large Language Models (LLMs) は多くの多様なドメインで驚くほど効果的であることが示されている。
これらの訓練されたLSMは微調整され、情報を再利用し、新しいタスクのトレーニングを加速することができる。
本研究は,スーパーマリオブラザーズレベルにおいて,タイルベースのゲームレベルを生成するための微調整GPT2モデルであるMarioGPTを紹介する。
我々はMarioGPTが多様なレベルを生成できるだけでなく、制御可能なレベル生成のためにテキストプロンプトが可能であることを示し、現在のPCG技術における重要な課題の1つに対処する。
私たちの知る限り、MarioGPTは最初のテキスト・ツー・レベルのモデルです。
また、MarioGPTとノベルティ検索を組み合わせることで、様々なプレイスタイルのダイナミックス(すなわちプレイヤーパス)で様々なレベルを生成できる。
この組み合わせにより、ますます多様なコンテンツのオープンな生成が可能になる。
関連論文リスト
- ZeroGen: Zero-shot Multimodal Controllable Text Generation with Multiple
Oracles [29.460712493470453]
マルチモーダル信号(textscZeroGen)を用いたゼロショット制御可能なテキスト生成の新しいパラダイムを提案する。
textscZeroGenはトークンレベルから文レベルまで連続的にテキストと画像の制御を利用し、復号時にそれらを統一された確率空間にマッピングする。
textscZeroGenはキャプションタスクにおいて、大きなマージンで上回るだけでなく、高い制御率を持つマルチモーダルニュース生成にも大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-29T03:22:43Z) - Ghost in the Minecraft: Generally Capable Agents for Open-World
Environments via Large Language Models with Text-based Knowledge and Memory [97.87093169454431]
Ghost in the Minecraft (GITM) は、LLM(Large Language Models)とテキストベースの知識と記憶を統合する新しいフレームワークである。
我々は、構造化されたアクションのセットを開発し、LSMを活用してエージェントが実行するアクションプランを生成する。
LLMをベースとしたエージェントは、従来の手法を著しく上回り、成功率+47.5%という顕著な改善を達成している。
論文 参考訳(メタデータ) (2023-05-25T17:59:49Z) - MGDoc: Pre-training with Multi-granular Hierarchy for Document Image
Understanding [53.03978356918377]
異なるレベルの粒度のコンテンツ間の空間的階層的関係は、文書画像理解タスクに不可欠である。
既存の方法は単語レベルか地域レベルから特徴を学習するが、両方を同時に考えることができない。
MGDocは,ページレベル,領域レベル,単語レベル情報を同時にエンコードするマルチモーダル・マルチグラニュラ事前学習フレームワークである。
論文 参考訳(メタデータ) (2022-11-27T22:47:37Z) - Learning to Transfer Prompts for Text Generation [97.64625999380425]
転送可能なテキスト生成のための新しいプロンプトベース手法(PTG)を提案する。
まず、PTGは、様々なソース生成タスクの一連のソースプロンプトを学習し、ターゲット生成タスクを実行するためのターゲットプロンプトとしてこれらのプロンプトを転送する。
広範な実験では、PTGは微調整法よりも競争力または優れた結果が得られる。
論文 参考訳(メタデータ) (2022-05-03T14:53:48Z) - TegTok: Augmenting Text Generation via Task-specific and Open-world
Knowledge [83.55215993730326]
本稿では,タスク固有およびオープンワールド知識(TegTok)によるTExt生成の統一化を提案する。
本モデルでは,2種類の知識ソースからの知識エントリを高密度検索により選択し,それぞれ入力エンコーディングと出力デコーディングの段階に注入する。
論文 参考訳(メタデータ) (2022-03-16T10:37:59Z) - A Plug-and-Play Method for Controlled Text Generation [38.283313068622085]
制御言語生成のためのプラグイン・アンド・プレイ復号法を提案する。
このアプローチの単純さにもかかわらず、実際に驚くほどうまく機能しているのが分かります。
論文 参考訳(メタデータ) (2021-09-20T17:27:03Z) - Experience-Driven PCG via Reinforcement Learning: A Super Mario Bros
Study [2.2215852332444905]
このフレームワークは、当初スーパーマリオブラザーズゲームでテストされている。
生成の正確性は、ニューラルネットアシスト進化レベル修復器によって保証される。
提案するフレームワークは、無限にプレイ可能なスーパーマリオブラザーズレベルを生成することができる。
論文 参考訳(メタデータ) (2021-06-30T08:10:45Z) - GeDi: Generative Discriminator Guided Sequence Generation [53.15651536569169]
本稿では,より小さなLMを生成的識別器として利用し,大規模なLMから生成を誘導する効率的な方法としてGeDiを提案する。
GeDiは最先端技術よりも制御性が強く,生成速度も30倍以上に向上することがわかった。
論文 参考訳(メタデータ) (2020-09-14T17:45:36Z) - TOAD-GAN: Coherent Style Level Generation from a Single Example [24.039037782220017]
トークンベースのゲームレベルを生成する新しいPCGアルゴリズムであるTOAD-GANを提案する。
スーパーマリオブラザーズレベルへの応用を実証し、任意のサイズで類似したスタイルの新たなレベルを生成することができる。
論文 参考訳(メタデータ) (2020-08-04T13:44:50Z) - Capturing Local and Global Patterns in Procedural Content Generation via
Machine Learning [9.697217570243845]
機械学習(PCGML)法による最近の手続き的コンテンツ生成により、学習者は既存のコンテンツから類似したコンテンツを生成することができる。
これらのアプローチが対称性のような大規模な視覚パターンをどの程度うまく捉えることができるかは、オープンな疑問である。
本稿では,PCGMLアルゴリズムが適切なパターンを生成する能力について,その領域として3つのゲームにマッチする手法を提案する。
論文 参考訳(メタデータ) (2020-05-26T08:58:37Z) - PALM: Pre-training an Autoencoding&Autoregressive Language Model for
Context-conditioned Generation [92.7366819044397]
自己指導型事前学習は、自然言語の理解と生成のための強力な技術として登場した。
本研究は,大規模未ラベルコーパス上で自己エンコーディングと自己回帰言語モデルを共同で事前学習する新しいスキームをPALMに提示する。
広範な実験により、PALMは様々な言語生成ベンチマークにおいて、新しい最先端の結果を達成することが示されている。
論文 参考訳(メタデータ) (2020-04-14T06:25:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。