論文の概要: Moonshine: Distilling Game Content Generators into Steerable Generative Models
- arxiv url: http://arxiv.org/abs/2408.09594v1
- Date: Sun, 18 Aug 2024 20:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 18:03:47.237475
- Title: Moonshine: Distilling Game Content Generators into Steerable Generative Models
- Title(参考訳): Moonshine: ゲームコンテンツ生成装置をステアブルな生成モデルに変換する
- Authors: Yuhe Nie, Michael Middleton, Tim Merino, Nidhushan Kanagaraja, Ashutosh Kumar, Zhan Zhuang, Julian Togelius,
- Abstract要約: PCGML(Procedural Content Generation via Machine Learning)は、ゲームコンテンツ生成の強化を図っているが、制御性や限られたトレーニングデータの持続性には課題がある。
本研究は, 構成型PCGアルゴリズムを可制御PCGMLモデルに蒸留することにより, これらの問題に対処する。
- 参考スコア(独自算出の注目度): 2.9690652756955305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Procedural Content Generation via Machine Learning (PCGML) has enhanced game content creation, yet challenges in controllability and limited training data persist. This study addresses these issues by distilling a constructive PCG algorithm into a controllable PCGML model. We first generate a large amount of content with a constructive algorithm and label it using a Large Language Model (LLM). We use these synthetic labels to condition two PCGML models for content-specific generation, a diffusion model and the five-dollar model. This neural network distillation process ensures that the generation aligns with the original algorithm while introducing controllability through plain text. We define this text-conditioned PCGML as a Text-to-game-Map (T2M) task, offering an alternative to prevalent text-to-image multi-modal tasks. We compare our distilled models with the baseline constructive algorithm. Our analysis of the variety, accuracy, and quality of our generation demonstrates the efficacy of distilling constructive methods into controllable text-conditioned PCGML models.
- Abstract(参考訳): PCGML(Procedural Content Generation via Machine Learning)は、ゲームコンテンツ生成の強化を図っているが、制御性や限られたトレーニングデータの持続性には課題がある。
本研究は, 構成型PCGアルゴリズムを可制御PCGMLモデルに蒸留することにより, これらの問題に対処する。
まず,構築アルゴリズムを用いて大量のコンテンツを生成し,Large Language Model (LLM) を用いてラベル付けする。
これらの合成ラベルを用いて、コンテンツ固有の生成のための2つのPCGMLモデル、拡散モデル、および5ドルモデルの条件付けを行う。
このニューラルネットワーク蒸留プロセスは、生成がプレーンテキストを通じて制御性を導入しながら元のアルゴリズムと整合することを保証する。
我々は,このテキスト条件付きPCGMLをテキスト・ツー・ゲーム・マップ(T2M)タスクとして定義する。
蒸留モデルとベースライン構築アルゴリズムを比較した。
そこで本研究では, テキストコンディショニング型PCGMLモデルにおいて, 製造方法の蒸留の有効性を検証した。
関連論文リスト
- Image Regeneration: Evaluating Text-to-Image Model via Generating Identical Image with Multimodal Large Language Models [54.052963634384945]
画像再生タスクを導入し,テキスト・ツー・イメージ・モデルの評価を行う。
我々はGPT4Vを用いて参照画像とT2Iモデルのテキスト入力のギャップを埋める。
また、生成した画像の品質を高めるために、ImageRepainterフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-14T13:52:43Z) - Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - Text-Guided Molecule Generation with Diffusion Language Model [23.170313481324598]
拡散言語モデル(TGM-DLM)を用いたテキストガイド型分子生成法を提案する。
TGM-DLMは、2相拡散生成プロセスを用いてSMILES文字列内にトークンの埋め込みをまとめ、反復的に更新する。
我々は、TGM-DLMが、追加のデータリソースを必要とせずに、自動回帰モデルであるMolT5-Baseより優れていることを実証する。
論文 参考訳(メタデータ) (2024-02-20T14:29:02Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Evaluating Generative Models for Graph-to-Text Generation [0.0]
ゼロショット設定でグラフデータから記述テキストを生成するための生成モデルの能力について検討する。
この結果から, 生成モデルにより, 流動的で一貫性のあるテキストを生成できることが示唆された。
しかし, 誤り解析の結果, 生成モデルは実体間の意味的関係の理解に苦慮していることが明らかとなった。
論文 参考訳(メタデータ) (2023-07-27T09:03:05Z) - GIMLET: A Unified Graph-Text Model for Instruction-Based Molecule
Zero-Shot Learning [71.89623260998934]
本研究は,ゼロショット環境下での分子関連タスクの実現に自然言語命令を用いることの実現可能性について検討する。
既存の分子テキストモデルは、命令の不十分な処理とグラフの限られた容量のために、この設定では性能が良くない。
グラフデータとテキストデータの両方の言語モデルを統合するGIMLETを提案する。
論文 参考訳(メタデータ) (2023-05-28T18:27:59Z) - Extrapolating Multilingual Understanding Models as Multilingual
Generators [82.1355802012414]
本稿では,多言語理解モデルに統一モデルを得るための生成能力を付与する手法について検討する。
少数の新しいパラメータを持つ多言語ジェネレータにエンコーダを適用するために,textbfSemantic-textbfGuided textbfAlignment-then-Denoising (SGA)アプローチを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:33:21Z) - Stochastic Code Generation [1.7205106391379026]
コード生成のために事前訓練された大きな言語モデルは、高品質のショートコードを生成するが、コヒーレントな長いコードを生成するのにしばしば苦労する。
この問題は、長文生成のための言語モデリングにも見られる。
本研究では,この手法をコード生成に適用してコヒーレンスを向上できるかを検討する。
論文 参考訳(メタデータ) (2023-04-14T00:01:05Z) - Mix and Match: Learning-free Controllable Text Generation using Energy
Language Models [33.97800741890231]
制御可能なテキスト生成のためのグローバルスコアベースの代替手段であるMix and Match LMを提案する。
我々は制御可能な生成のタスクをエネルギーベースモデルからのサンプルの描画として解釈する。
我々は、このエネルギーベースモデルからサンプリングするためにメトロポリス・ハスティングスサンプリングスキームを使用する。
論文 参考訳(メタデータ) (2022-03-24T18:52:09Z) - Ensemble Learning For Mega Man Level Generation [2.6402344419230697]
マルコフ連鎖のアンサンブルを用いて, EmphMega Man レベルをプロシージャ的に生成する方法について検討した。
我々は,既存のマルコフ連鎖アプローチと比較し,演奏性およびスタイル的類似度の評価を行った。
論文 参考訳(メタデータ) (2021-07-27T00:16:23Z) - Data-to-text Generation with Macro Planning [61.265321323312286]
本稿では,マクロ計画段階のニューラルモデルと,従来の手法を連想させる生成段階を提案する。
提案手法は, 自動評価と人的評価の両面で, 競争ベースラインを上回っている。
論文 参考訳(メタデータ) (2021-02-04T16:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。