論文の概要: Start Small: Training Game Level Generators from Nothing by Learning at
Multiple Sizes
- arxiv url: http://arxiv.org/abs/2209.15052v1
- Date: Thu, 29 Sep 2022 18:52:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 15:59:29.650120
- Title: Start Small: Training Game Level Generators from Nothing by Learning at
Multiple Sizes
- Title(参考訳): start small: 複数のサイズで学習することで、無からゲームレベルジェネレータをトレーニングする
- Authors: Yahia Zakaria, Magda Fayek, Mayada Hadhoud
- Abstract要約: プロシージャレベルジェネレータはノイズからレベルを生成するツールである。
ジェネレータを構築する方法のひとつに機械学習があるが、トレーニングデータの希少さを考えると、ジェネレータを無からトレーニングするための複数の方法が提案されている。
本稿では,所望のサイズの小さいものから所望のサイズのものまで,複数のレベルの大きさで学習することで,無からジェネレータを訓練する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A procedural level generator is a tool that generates levels from noise. One
approach to build generators is using machine learning, but given the training
data rarity, multiple methods have been proposed to train generators from
nothing. However, level generation tasks tend to have sparse feedback, which is
commonly mitigated using game-specific supplemental rewards. This paper
proposes a novel approach to train generators from nothing by learning at
multiple level sizes starting from a small size up to the desired sizes. This
approach employs the observed phenomenon that feedback is denser at smaller
sizes to avoid supplemental rewards. It also presents the benefit of training
generators to output levels at various sizes. We apply this approach to train
controllable generators using generative flow networks. We also modify
diversity sampling to be compatible with generative flow networks and to expand
the expressive range. The results show that our methods can generate
high-quality diverse levels for Sokoban, Zelda and Danger Dave for a variety of
sizes, after only 3h 29min up to 6h 11min (depending on the game) of training
on a single commodity machine. Also, the results show that our generators can
output levels for sizes that were unavailable during training.
- Abstract(参考訳): プロシージャレベルジェネレータはノイズからレベルを生成するツールである。
ジェネレータを構築するアプローチのひとつが機械学習だが、トレーニングデータのラリティを考慮すると、ジェネレータを無からトレーニングするために複数の方法が提案されている。
しかし、レベル生成タスクはフィードバックが少なく、ゲーム固有の補足報酬によって軽減されることが多い。
本稿では,小サイズから所望のサイズまで,複数のレベルから学習することで,無から無へと発電機を訓練する新しい手法を提案する。
このアプローチでは、補足的な報酬を避けるために、小さなサイズでフィードバックがより密集する観察現象を用いる。
また、様々なサイズの出力レベルにジェネレータを訓練するメリットも提示する。
このアプローチを生成フローネットワークを用いた制御型発電機の訓練に適用する。
また、生成フローネットワークと互換性のある多様性サンプリングを修正し、表現範囲を広げる。
その結果,1台のコモディティマシン上でのトレーニングの3時間29分から6時間11分(ゲーム依存)まで,ソコバン,ゼルダ,ダンガー・デイブの高品質な多様なレベルを多種多様なサイズで生成できることがわかった。
また,本実験の結果から,トレーニング中に使用不能なサイズの出力レベルも確認できた。
関連論文リスト
- Just One Byte (per gradient): A Note on Low-Bandwidth Decentralized
Language Model Finetuning Using Shared Randomness [86.61582747039053]
分散環境での言語モデルトレーニングは、交換の通信コストによって制限される。
分散微調整を低帯域幅で行うために,共有ランダムネスを用いた最近の作業を拡張した。
論文 参考訳(メタデータ) (2023-06-16T17:59:51Z) - Momentum Adversarial Distillation: Handling Large Distribution Shifts in
Data-Free Knowledge Distillation [65.28708064066764]
モーメントム逆蒸留法(MAD)という簡便で効果的な方法を提案する。
MADは、ジェネレータの指数移動平均(EMA)コピーを保持し、ジェネレータとEMAジェネレータの合成サンプルを使用して生徒を訓練する。
ImageNetやPlaces365のような大きなデータセットを含む6つのベンチマークデータセットの実験では、競合する手法よりもMADの方が優れた性能を示している。
論文 参考訳(メタデータ) (2022-09-21T13:53:56Z) - Joint Generator-Ranker Learning for Natural Language Generation [99.16268050116717]
JGRは、ジェネレータとローダを単一のフレームワークに統合する、新しいジョイントトレーニングアルゴリズムである。
ジェネレータとランク装置を反復的に更新することにより、JGRは学習を効果的に調和させ、共同で品質を高めることができる。
論文 参考訳(メタデータ) (2022-06-28T12:58:30Z) - Learning to Generate Levels by Imitating Evolution [7.110423254122942]
機械学習を用いた新しいタイプの反復レベルジェネレータを提案する。
進化過程を模倣するためにモデルをトレーニングし、モデルを使用してレベルを生成します。
このトレーニングされたモデルは、フィットネス機能を必要とせずに、ノイズレベルを逐次修正して、より良いレベルを作ることができる。
論文 参考訳(メタデータ) (2022-06-11T10:44:57Z) - Illuminating Diverse Neural Cellular Automata for Level Generation [5.294599496581041]
本稿では,ゲームレベルを設計するためのニューラルネットワークオートマトン(NCA)のコレクションを生成する手法を提案する。
提案手法は,審美的基準や機能的基準に基づいて,出力レベルが異なる多様なレベルジェネレータを訓練することができる。
本手法は,迷路ゲーム,ソコバン,ゼルダなどの2次元タイルゲームのためのレベルジェネレータ生成に応用する。
論文 参考訳(メタデータ) (2021-09-12T11:17:31Z) - Learning Controllable Content Generators [5.5805433423452895]
多岐にわたる出力を生産できる発電機を「ゴールアウェア」にすることで育成します。
得られたレベルジェネレータは,対象とした制御可能な方法で可能なレベルの空間を探索できることを示す。
論文 参考訳(メタデータ) (2021-05-06T22:15:51Z) - Slimmable Generative Adversarial Networks [54.61774365777226]
近年、GAN(Generative adversarial Network)は目覚ましい進歩を遂げていますが、モデルの継続的な拡大は、実用的なアプリケーションに広く展開することを困難にしています。
本稿では,実行時の各種品質効率トレードオフに対応するため,発電機の幅を柔軟に切り替えることのできるスリムブルGANを提案する。
論文 参考訳(メタデータ) (2020-12-10T13:35:22Z) - Few-Shot Learning with Intra-Class Knowledge Transfer [100.87659529592223]
アンバランスなデータセットを用いた数発の分類タスクについて検討する。
近年の研究では、生成モデルを用いて数発の授業のトレーニングデータを増やすことで、この課題を解決することが提案されている。
本稿では,近隣クラスが類似した統計情報を共有するという直感で,近隣クラスからのクラス内知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-08-22T18:15:38Z) - Data-Free Knowledge Amalgamation via Group-Stack Dual-GAN [80.17705319689139]
複数のシングルタスク/マルチタスクの教師から,多タスクの学生ネットワークを構築するために,データフリーな知識アマルガメート戦略を提案する。
トレーニングデータを持たない提案手法は, フル教師付き手法と比較して, 驚くほど競争力のある結果が得られる。
論文 参考訳(メタデータ) (2020-03-20T03:20:52Z) - Learning to Generate Levels From Nothing [5.2508303190856624]
演奏レベルを設計するジェネレーティブ・プレイング・ネットワークを提案する。
このアルゴリズムは、ゲームのレベルを学習するエージェントと、プレイ可能なレベルの分布を学習するジェネレータの2つの部分で構成されている。
本研究では,2次元ダンジョンクローラゲームにおけるエージェントとレベルジェネレータの訓練により,このフレームワークの能力を示す。
論文 参考訳(メタデータ) (2020-02-12T22:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。