論文の概要: Generating Gameplay-Relevant Art Assets with Transfer Learning
- arxiv url: http://arxiv.org/abs/2010.01681v1
- Date: Sun, 4 Oct 2020 20:58:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 03:04:44.212749
- Title: Generating Gameplay-Relevant Art Assets with Transfer Learning
- Title(参考訳): 転送学習によるゲームプレイ関連アートアセットの生成
- Authors: Adrian Gonzalez, Matthew Guzdial and Felix Ramos
- Abstract要約: 本稿では,ゲームプレイの関連性に基づいて,新たなゲームビジュアルを修正・生成するCVAEシステムを提案する。
実験結果から,トランスファーラーニングアプローチを採用することで,見えないデータに対する視覚的品質と安定性が向上する可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.8164433158925593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In game development, designing compelling visual assets that convey
gameplay-relevant features requires time and experience. Recent image
generation methods that create high-quality content could reduce development
costs, but these approaches do not consider game mechanics. We propose a
Convolutional Variational Autoencoder (CVAE) system to modify and generate new
game visuals based on their gameplay relevance. We test this approach with
Pok\'emon sprites and Pok\'emon type information, since types are one of the
game's core mechanics and they directly impact the game's visuals. Our
experimental results indicate that adopting a transfer learning approach can
help to improve visual quality and stability over unseen data.
- Abstract(参考訳): ゲーム開発では、ゲームプレイに関連のある機能を伝達する魅力的なビジュアル資産を設計するには、時間と経験が必要です。
高品質なコンテンツを作成する最近の画像生成手法は開発コストを削減できるが、これらの手法はゲーム力学を考慮しない。
本稿では,ゲームプレイ関連性に基づいて,新たなゲームビジュアルを修正・生成するCVAEシステムを提案する。
我々は,Pok\'emon Sprites と Pok\'emon 型情報を用いて,このアプローチを検証した。
実験結果から,トランスファーラーニングアプローチを採用することで,見えないデータに対する視覚的品質と安定性が向上する可能性が示唆された。
関連論文リスト
- AnimateZero: Video Diffusion Models are Zero-Shot Image Animators [63.938509879469024]
我々はAnimateZeroを提案し、事前訓練されたテキスト・ビデオ拡散モデル、すなわちAnimateDiffを提案する。
外観制御のために,テキスト・ツー・イメージ(T2I)生成から中間潜伏子とその特徴を借りる。
時間的制御では、元のT2Vモデルのグローバルな時間的注意を位置補正窓の注意に置き換える。
論文 参考訳(メタデータ) (2023-12-06T13:39:35Z) - Visual Encoders for Data-Efficient Imitation Learning in Modern Video
Games [13.241655571625822]
現代のゲームにおけるトレーニングエージェントに向けたアタリゲームを超えることは、研究コミュニティの大部分にとって違法に高価である。
大規模ビジョンモデルの研究、開発、オープンリリースの最近の進歩は、コミュニティ全体でこれらのコストの一部を償却する可能性がある。
本稿では, Minecraft, Minecraft Dungeons および Counter-Strike: Global Offensive の典型的な, タスク固有のエンドツーエンドトレーニングアプローチと比較して, 公開可能なビジュアルエンコーダを用いた模倣学習の体系的研究を行う。
論文 参考訳(メタデータ) (2023-12-04T19:52:12Z) - Towards General Game Representations: Decomposing Games Pixels into
Content and Style [2.570570340104555]
ゲームのピクセル表現を学習することは、複数の下流タスクにまたがる人工知能の恩恵を受けることができる。
本稿では,コンピュータビジョンエンコーダの汎用化について検討する。
我々は、ゲームジャンルに基づく事前学習されたビジョントランスフォーマーエンコーダと分解技術を用いて、個別のコンテンツとスタイルの埋め込みを得る。
論文 参考訳(メタデータ) (2023-07-20T17:53:04Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Game State Learning via Game Scene Augmentation [2.570570340104555]
我々はゲームエンジンを利用して、異なるゲーム状態の特定の、高度に制御されたレンダリングを定義し、合成する新しいゲームシーン拡張技術、GameCLRを紹介した。
この結果から,ゲームCLRはベースラインよりもゲーム映像からゲームの状態情報を正確に推測できる可能性が示唆された。
論文 参考訳(メタデータ) (2022-07-04T09:40:14Z) - Multi-Game Decision Transformers [49.257185338595434]
そこで本研究では,1つのトランスフォーマーモデルを用いて,最大46個のAtariゲーム群を,人間に近いパフォーマンスで同時にプレイ可能であることを示す。
オンラインやオフラインのRL手法や行動クローンなど,マルチゲーム設定におけるいくつかのアプローチを比較した。
マルチゲーム決定変換モデルは、最高のスケーラビリティとパフォーマンスを提供します。
論文 参考訳(メタデータ) (2022-05-30T16:55:38Z) - CCPT: Automatic Gameplay Testing and Validation with
Curiosity-Conditioned Proximal Trajectories [65.35714948506032]
Curiosity-Conditioned Proximal Trajectories (CCPT)法は、好奇心と模倣学習を組み合わせてエージェントを訓練して探索する。
CCPTが複雑な環境を探索し、ゲームプレイの問題を発見し、その過程におけるデザインの監視を行い、それらをゲームデザイナーに直接認識し、強調する方法について説明する。
論文 参考訳(メタデータ) (2022-02-21T09:08:33Z) - Level generation and style enhancement -- deep learning for game
development overview [0.0]
統計的手法,機械学習,あるいはディープラーニングを用いて,レベルマップを作成するための7つのアプローチを提案する。
我々はゲーム開発者とレベルアーティストに新たな可能性を示すことを目指している。
論文 参考訳(メタデータ) (2021-07-15T15:24:43Z) - Unsupervised Visual Representation Learning by Tracking Patches in Video [88.56860674483752]
本研究では,コンピュータビジョンシステムのプロキシタスクとしてトラッキングを用いて視覚表現を学習することを提案する。
子どもたちがプレイするキャッチゲームをベースに、視覚表現を学ぶ3D-CNNモデルのためのキャッチ・ザ・パッチ(CtP)ゲームを設計します。
論文 参考訳(メタデータ) (2021-05-06T09:46:42Z) - Entity Embedding as Game Representation [0.9645196221785693]
エンゲージ埋め込み」と呼ばれるものを導出するためのオートエンコーダを提案する。
本稿では,学習した表現と,その品質と将来性に関するいくつかの証拠を紹介する。
論文 参考訳(メタデータ) (2020-10-04T21:16:45Z) - Disentangling Controllable Object through Video Prediction Improves
Visual Reinforcement Learning [82.25034245150582]
多くの視覚に基づく強化学習問題において、エージェントは視野内の可動物体を制御する。
制御可能なオブジェクトを観測信号から切り離すためのエンドツーエンド学習フレームワークを提案する。
不整合表現は、RLがエージェントに追加の観察チャネルとして有用であることが示されている。
論文 参考訳(メタデータ) (2020-02-21T05:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。