論文の概要: Generating Gameplay-Relevant Art Assets with Transfer Learning
- arxiv url: http://arxiv.org/abs/2010.01681v1
- Date: Sun, 4 Oct 2020 20:58:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 03:04:44.212749
- Title: Generating Gameplay-Relevant Art Assets with Transfer Learning
- Title(参考訳): 転送学習によるゲームプレイ関連アートアセットの生成
- Authors: Adrian Gonzalez, Matthew Guzdial and Felix Ramos
- Abstract要約: 本稿では,ゲームプレイの関連性に基づいて,新たなゲームビジュアルを修正・生成するCVAEシステムを提案する。
実験結果から,トランスファーラーニングアプローチを採用することで,見えないデータに対する視覚的品質と安定性が向上する可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.8164433158925593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In game development, designing compelling visual assets that convey
gameplay-relevant features requires time and experience. Recent image
generation methods that create high-quality content could reduce development
costs, but these approaches do not consider game mechanics. We propose a
Convolutional Variational Autoencoder (CVAE) system to modify and generate new
game visuals based on their gameplay relevance. We test this approach with
Pok\'emon sprites and Pok\'emon type information, since types are one of the
game's core mechanics and they directly impact the game's visuals. Our
experimental results indicate that adopting a transfer learning approach can
help to improve visual quality and stability over unseen data.
- Abstract(参考訳): ゲーム開発では、ゲームプレイに関連のある機能を伝達する魅力的なビジュアル資産を設計するには、時間と経験が必要です。
高品質なコンテンツを作成する最近の画像生成手法は開発コストを削減できるが、これらの手法はゲーム力学を考慮しない。
本稿では,ゲームプレイ関連性に基づいて,新たなゲームビジュアルを修正・生成するCVAEシステムを提案する。
我々は,Pok\'emon Sprites と Pok\'emon 型情報を用いて,このアプローチを検証した。
実験結果から,トランスファーラーニングアプローチを採用することで,見えないデータに対する視覚的品質と安定性が向上する可能性が示唆された。
関連論文リスト
- Level Up Your Tutorials: VLMs for Game Tutorials Quality Assessment [4.398130586098371]
チュートリアルの有効性を評価するには、ゲームに関する事前の知識を持たないテスタとの繰り返しが必要になります。
近年の視覚言語モデル (VLM) は視覚内容の理解と解釈において重要な機能を示している。
本稿では,ゲームチュートリアルの品質を評価するための自動ゲームテストソリューションを提案する。
論文 参考訳(メタデータ) (2024-08-15T19:46:21Z) - Instruction-Driven Game Engines on Large Language Models [59.280666591243154]
IDGEプロジェクトは、大規模な言語モデルが自由形式のゲームルールに従うことを可能にすることで、ゲーム開発を民主化することを目的としている。
我々は、複雑なシナリオに対するモデルの露出を徐々に増大させるカリキュラム方式でIDGEを訓練する。
私たちの最初の進歩は、汎用的なカードゲームであるPoker用のIDGEを開発することです。
論文 参考訳(メタデータ) (2024-03-30T08:02:16Z) - Towards General Game Representations: Decomposing Games Pixels into
Content and Style [2.570570340104555]
ゲームのピクセル表現を学習することは、複数の下流タスクにまたがる人工知能の恩恵を受けることができる。
本稿では,コンピュータビジョンエンコーダの汎用化について検討する。
我々は、ゲームジャンルに基づく事前学習されたビジョントランスフォーマーエンコーダと分解技術を用いて、個別のコンテンツとスタイルの埋め込みを得る。
論文 参考訳(メタデータ) (2023-07-20T17:53:04Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Game State Learning via Game Scene Augmentation [2.570570340104555]
我々はゲームエンジンを利用して、異なるゲーム状態の特定の、高度に制御されたレンダリングを定義し、合成する新しいゲームシーン拡張技術、GameCLRを紹介した。
この結果から,ゲームCLRはベースラインよりもゲーム映像からゲームの状態情報を正確に推測できる可能性が示唆された。
論文 参考訳(メタデータ) (2022-07-04T09:40:14Z) - Multi-Game Decision Transformers [49.257185338595434]
そこで本研究では,1つのトランスフォーマーモデルを用いて,最大46個のAtariゲーム群を,人間に近いパフォーマンスで同時にプレイ可能であることを示す。
オンラインやオフラインのRL手法や行動クローンなど,マルチゲーム設定におけるいくつかのアプローチを比較した。
マルチゲーム決定変換モデルは、最高のスケーラビリティとパフォーマンスを提供します。
論文 参考訳(メタデータ) (2022-05-30T16:55:38Z) - CCPT: Automatic Gameplay Testing and Validation with
Curiosity-Conditioned Proximal Trajectories [65.35714948506032]
Curiosity-Conditioned Proximal Trajectories (CCPT)法は、好奇心と模倣学習を組み合わせてエージェントを訓練して探索する。
CCPTが複雑な環境を探索し、ゲームプレイの問題を発見し、その過程におけるデザインの監視を行い、それらをゲームデザイナーに直接認識し、強調する方法について説明する。
論文 参考訳(メタデータ) (2022-02-21T09:08:33Z) - Level generation and style enhancement -- deep learning for game
development overview [0.0]
統計的手法,機械学習,あるいはディープラーニングを用いて,レベルマップを作成するための7つのアプローチを提案する。
我々はゲーム開発者とレベルアーティストに新たな可能性を示すことを目指している。
論文 参考訳(メタデータ) (2021-07-15T15:24:43Z) - Unsupervised Visual Representation Learning by Tracking Patches in Video [88.56860674483752]
本研究では,コンピュータビジョンシステムのプロキシタスクとしてトラッキングを用いて視覚表現を学習することを提案する。
子どもたちがプレイするキャッチゲームをベースに、視覚表現を学ぶ3D-CNNモデルのためのキャッチ・ザ・パッチ(CtP)ゲームを設計します。
論文 参考訳(メタデータ) (2021-05-06T09:46:42Z) - Entity Embedding as Game Representation [0.9645196221785693]
エンゲージ埋め込み」と呼ばれるものを導出するためのオートエンコーダを提案する。
本稿では,学習した表現と,その品質と将来性に関するいくつかの証拠を紹介する。
論文 参考訳(メタデータ) (2020-10-04T21:16:45Z) - Disentangling Controllable Object through Video Prediction Improves
Visual Reinforcement Learning [82.25034245150582]
多くの視覚に基づく強化学習問題において、エージェントは視野内の可動物体を制御する。
制御可能なオブジェクトを観測信号から切り離すためのエンドツーエンド学習フレームワークを提案する。
不整合表現は、RLがエージェントに追加の観察チャネルとして有用であることが示されている。
論文 参考訳(メタデータ) (2020-02-21T05:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。