論文の概要: PCGPT: Procedural Content Generation via Transformers
- arxiv url: http://arxiv.org/abs/2310.02405v1
- Date: Tue, 3 Oct 2023 19:58:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 17:53:08.941497
- Title: PCGPT: Procedural Content Generation via Transformers
- Title(参考訳): PCGPT:トランスフォーマーによる手続き的コンテンツ生成
- Authors: Sajad Mohaghegh, Mohammad Amin Ramezan Dehnavi, Golnoosh
Abdollahinejad, Matin Hashemi
- Abstract要約: オフライン強化学習とトランスフォーマーネットワークを用いたプロシージャコンテンツ生成(PCG)の革新的アプローチであるPCGPTフレームワークを提案する。
PCGPTはトランスフォーマーに基づく自己回帰モデルを用いてゲームレベルを反復的に生成し、繰り返し、予測可能、一貫性のないコンテンツといった従来のPCG手法の課題に対処する。
- 参考スコア(独自算出の注目度): 1.515687944002438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The paper presents the PCGPT framework, an innovative approach to procedural
content generation (PCG) using offline reinforcement learning and transformer
networks. PCGPT utilizes an autoregressive model based on transformers to
generate game levels iteratively, addressing the challenges of traditional PCG
methods such as repetitive, predictable, or inconsistent content. The framework
models trajectories of actions, states, and rewards, leveraging the
transformer's self-attention mechanism to capture temporal dependencies and
causal relationships. The approach is evaluated in the Sokoban puzzle game,
where the model predicts items that are needed with their corresponding
locations. Experimental results on the game Sokoban demonstrate that PCGPT
generates more complex and diverse game content. Interestingly, it achieves
these results in significantly fewer steps compared to existing methods,
showcasing its potential for enhancing game design and online content
generation. Our model represents a new PCG paradigm which outperforms previous
methods.
- Abstract(参考訳): オフライン強化学習とトランスフォーマーネットワークを用いた手続き型コンテンツ生成(PCG)の革新的アプローチであるPCGPTフレームワークを提案する。
PCGPTはトランスフォーマーに基づく自己回帰モデルを用いてゲームレベルを反復的に生成し、繰り返し、予測可能、一貫性のないコンテンツといった従来のPCG手法の課題に対処する。
フレームワークは行動、状態、報酬の軌跡をモデル化し、トランスフォーマーの自己注意機構を利用して時間的依存や因果関係を捉える。
この手法はソコバンパズルゲーム(英語版)で評価され、モデルが対応する場所に必要なアイテムを予測する。
ゲーム実験の結果,PCGPTはより複雑で多様なゲームコンテンツを生成することが示された。
興味深いことに、既存の方法に比べてはるかに少ないステップでこれらの結果を達成し、ゲームデザインとオンラインコンテンツ生成を強化する可能性を示している。
本モデルは,従来の手法よりも優れたPCGパラダイムを示す。
関連論文リスト
- Converting Transformers to Polynomial Form for Secure Inference Over
Homomorphic Encryption [45.00129952368691]
ホモモルフィック暗号化(HE)は、ディープラーニングにおける最も有望なアプローチの1つである。
変換器を用いたHE上でのセキュアな推論のデモンストレーションとして,第1回変換器を紹介する。
我々のモデルは従来の手法に匹敵する結果をもたらし、同様のスケールのトランスフォーマーで性能ギャップを埋め、最先端のアプリケーションでHEが実現可能であることを裏付ける。
論文 参考訳(メタデータ) (2023-11-15T00:23:58Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - Procedural Content Generation via Knowledge Transformation (PCG-KT) [8.134009219520289]
知識変換(PCG-KT)による手続き的コンテンツ生成の概念を導入する。
本研究の動機は,先進的な知識を再調達することで,新たなコンテンツを生み出すことに焦点を当てた最近のPCG作品が多数あることにある。
論文 参考訳(メタデータ) (2023-05-01T03:31:22Z) - A Survey on Transformers in Reinforcement Learning [66.23773284875843]
Transformer は NLP と CV において支配的なニューラルネットワークアーキテクチャと見なされている。
近年、強化学習(RL)分野においてトランスフォーマーの使用が急増しているが、RLの性質によってもたらされるユニークな設計選択と課題に直面している。
本稿では,RLにおけるトランスフォーマーの利用の動機と進歩を体系的にレビューし,既存の作業の分類を提供し,各サブフィールドについて議論し,今後の展望を要約する。
論文 参考訳(メタデータ) (2023-01-08T14:04:26Z) - Transformers learn in-context by gradient descent [58.24152335931036]
自己回帰目標におけるトランスフォーマーの訓練は、勾配に基づくメタラーニングの定式化と密接に関連している。
トレーニングされたトランスフォーマーがメザ最適化器となる方法,すなわち,前方通過における勾配降下によるモデル学習方法を示す。
論文 参考訳(メタデータ) (2022-12-15T09:21:21Z) - Decision Transformer: Reinforcement Learning via Sequence Modeling [102.86873656751489]
本稿では,シーケンスモデリング問題として強化学習(RL)を抽象化するフレームワークを提案する。
本稿では,RLを条件付きシーケンスモデルとして扱うアーキテクチャであるDecision Transformerを提案する。
その単純さにもかかわらず、Decision Transformerは、Atari、OpenAI Gym、Key-to-Doorタスク上での最先端のオフラインRLベースラインのパフォーマンスと一致または超過する。
論文 参考訳(メタデータ) (2021-06-02T17:53:39Z) - Combining Transformer Generators with Convolutional Discriminators [9.83490307808789]
最近提案されたTransGANはトランスフォーマーアーキテクチャのみを使用した最初のGANである。
TransGANは、データ拡張、トレーニング中の補助的な超解像タスク、そして自己保持メカニズムを導く前にマスクを必要とする。
我々は、よく知られたCNN識別器のベンチマークを行い、トランスフォーマーベースジェネレータのサイズを減らし、両方のアーキテクチャ要素をハイブリッドモデルに組み込むことにより、より良い結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-05-21T07:56:59Z) - Visformer: The Vision-friendly Transformer [105.52122194322592]
我々は視覚に優しいトランスフォーマーから短縮したvisformerという新しいアーキテクチャを提案する。
同じ計算の複雑さにより、VisformerはTransformerベースのモデルとConvolutionベースのモデルの両方をImageNet分類精度で上回る。
論文 参考訳(メタデータ) (2021-04-26T13:13:03Z) - Visual Saliency Transformer [127.33678448761599]
RGBとRGB-Dの液状物体検出(SOD)のための、純粋な変圧器であるVST(Visual Saliency Transformer)に基づく新しい統一モデルを開発しました。
イメージパッチを入力として取り、トランスフォーマーを利用してイメージパッチ間のグローバルコンテキストを伝搬する。
実験結果から,RGBとRGB-D SODのベンチマークデータセットにおいて,本モデルが既存の最新結果を上回っていることが示された。
論文 参考訳(メタデータ) (2021-04-25T08:24:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。