論文の概要: Illuminating the Space of Beatable Lode Runner Levels Produced By
Various Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2101.07868v1
- Date: Tue, 19 Jan 2021 21:41:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 11:27:24.334420
- Title: Illuminating the Space of Beatable Lode Runner Levels Produced By
Various Generative Adversarial Networks
- Title(参考訳): 様々な生成的敵ネットワークによって生成されるビートブル・ロードランナーレベルの空間の照明
- Authors: Kirby Steckel and Jacob Schrum
- Abstract要約: 本稿では、ゲームLode Runnerの異なるデータサブセットで訓練された6つの異なるGANを調べます。
わずか20のレベルで訓練されたganは、最も多様なビート可能なレベルを生み出した。
150レベルで訓練されたGANは、多様な破れるレベルの最小セットを生成しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) are capable of generating convincing
imitations of elements from a training set, but the distribution of elements in
the training set affects to difficulty of properly training the GAN and the
quality of the outputs it produces. This paper looks at six different GANs
trained on different subsets of data from the game Lode Runner. The quality
diversity algorithm MAP-Elites was used to explore the set of quality levels
that could be produced by each GAN, where quality was defined as being beatable
and having the longest solution path possible. Interestingly, a GAN trained on
only 20 levels generated the largest set of diverse beatable levels while a GAN
trained on 150 levels generated the smallest set of diverse beatable levels,
thus challenging the notion that more is always better when training GANs.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、トレーニングセットから要素の説得力のある模倣を生成することができるが、トレーニングセット内の要素の分布は、GANを適切にトレーニングすることの難しさと、それが生成する出力の品質に影響を及ぼす。
本稿では,ゲームlode runnerの異なるサブセットでトレーニングされた6種類のganについて検討する。
品質多様性アルゴリズムMAP-Elitesは、各GANが生成できる品質レベルのセットを探索するために用いられ、そこでは品質は打ち負かされ、最も長い解経路を持つと定義されていた。
興味深いことに、たった20のレベルでトレーニングされたGANが、150のレベルでトレーニングされたGANが、150のレベルでトレーニングされたGANが、最も多様なビータブルレベルでトレーニングされた最小のセットを生成した。
関連論文リスト
- Taming the Tail in Class-Conditional GANs: Knowledge Sharing via Unconditional Training at Lower Resolutions [10.946446480162148]
GANはより多くのサンプルを持つクラスを好む傾向があり、尾クラスの低品質で多様性の低いサンプルが生成される。
そこで我々は,より豊富な学習データを持つクラスから,テールクラスが豊富な情報から借用できる,知識共有の単純かつ効果的な方法を提案する。
いくつかのロングテールベンチマークとGANアーキテクチャの実験は、生成された画像の多様性と忠実さの両方において、既存の手法よりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2024-02-26T23:03:00Z) - Pixel to policy: DQN Encoders for within & cross-game reinforcement
learning [0.0]
強化学習は様々なタスクや環境に適用できる。
多くの環境は類似した構造を持ち、他のタスクでのRL性能を改善するために利用することができる。
この研究は、スクラッチからトレーニングされたRLモデルのパフォーマンスと、トランスファーラーニングの異なるアプローチの比較も行っている。
論文 参考訳(メタデータ) (2023-08-01T06:29:33Z) - Expeditious Saliency-guided Mix-up through Random Gradient Thresholding [89.59134648542042]
混合学習アプローチはディープニューラルネットワークの一般化能力向上に有効であることが証明されている。
本稿では,両経路の分岐点に位置する新しい手法を提案する。
我々はR-Mixという手法を「Random Mix-up」という概念にちなむ。
より良い意思決定プロトコルが存在するかどうかという問題に対処するために、我々は、ミックスアップポリシーを決定する強化学習エージェントを訓練する。
論文 参考訳(メタデータ) (2022-12-09T14:29:57Z) - Illuminating Diverse Neural Cellular Automata for Level Generation [5.294599496581041]
本稿では,ゲームレベルを設計するためのニューラルネットワークオートマトン(NCA)のコレクションを生成する手法を提案する。
提案手法は,審美的基準や機能的基準に基づいて,出力レベルが異なる多様なレベルジェネレータを訓練することができる。
本手法は,迷路ゲーム,ソコバン,ゼルダなどの2次元タイルゲームのためのレベルジェネレータ生成に応用する。
論文 参考訳(メタデータ) (2021-09-12T11:17:31Z) - Training Generative Adversarial Networks in One Stage [58.983325666852856]
本稿では,1段階のみに効率よくGANを訓練できる汎用的なトレーニング手法を提案する。
提案手法は,データフリーな知識蒸留など,他の逆学習シナリオにも容易に適用可能であることを示す。
論文 参考訳(メタデータ) (2021-02-28T09:03:39Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - Using Multiple Generative Adversarial Networks to Build Better-Connected
Levels for Mega Man [0.0]
本稿では,GAN生成セグメントをスネーキングパターンに組み合わせて,メガマンのレベルを作成することに焦点を当てる。
複数のGANは、セグメント間のより良いフローを保証するために、異なるタイプのセグメントで訓練された。
論文 参考訳(メタデータ) (2021-01-30T23:34:15Z) - Improving the Speed and Quality of GAN by Adversarial Training [87.70013107142142]
我々は,GAN訓練の高速化と品質向上を目的としたFastGANを開発した。
当社のトレーニングアルゴリズムは,2-4GPUを必要とすることによって,ImageNetのトレーニングを一般向けに提供しています。
論文 参考訳(メタデータ) (2020-08-07T20:21:31Z) - Illuminating Mario Scenes in the Latent Space of a Generative
Adversarial Network [11.055580854275474]
設計者は,我々のシステムにゲームプレイ対策を規定し,様々なレベルのメカニックで高品質な(プレイ可能な)レベルを抽出する方法を示す。
オンラインユーザスタディでは、自動生成されるレベルの異なるメカニズムが、認識される困難さと外観の主観的評価にどのように影響するかが示されている。
論文 参考訳(メタデータ) (2020-07-11T03:38:06Z) - Improving GAN Training with Probability Ratio Clipping and Sample
Reweighting [145.5106274085799]
GAN(Generative Adversarial Network)は、不安定なトレーニングにより性能が低下することが多い。
本稿では,より優れたトレーニング安定性を享受する新しい変分GANトレーニングフレームワークを提案する。
多様な最先端のGANアーキテクチャにトレーニングアプローチを組み込むことで、幅広いタスクに対して大幅な性能向上を実現した。
論文 参考訳(メタデータ) (2020-06-12T01:39:48Z) - Data-Free Knowledge Amalgamation via Group-Stack Dual-GAN [80.17705319689139]
複数のシングルタスク/マルチタスクの教師から,多タスクの学生ネットワークを構築するために,データフリーな知識アマルガメート戦略を提案する。
トレーニングデータを持たない提案手法は, フル教師付き手法と比較して, 驚くほど競争力のある結果が得られる。
論文 参考訳(メタデータ) (2020-03-20T03:20:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。