論文の概要: Entity Embedding as Game Representation
- arxiv url: http://arxiv.org/abs/2010.01685v1
- Date: Sun, 4 Oct 2020 21:16:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 03:48:44.162473
- Title: Entity Embedding as Game Representation
- Title(参考訳): ゲーム表現としてのエンティティ埋め込み
- Authors: Nazanin Yousefzadeh Khameneh and Matthew Guzdial
- Abstract要約: エンゲージ埋め込み」と呼ばれるものを導出するためのオートエンコーダを提案する。
本稿では,学習した表現と,その品質と将来性に関するいくつかの証拠を紹介する。
- 参考スコア(独自算出の注目度): 0.9645196221785693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Procedural content generation via machine learning (PCGML) has shown success
at producing new video game content with machine learning. However, the
majority of the work has focused on the production of static game content,
including game levels and visual elements. There has been much less work on
dynamic game content, such as game mechanics. One reason for this is the lack
of a consistent representation for dynamic game content, which is key for a
number of statistical machine learning approaches. We present an autoencoder
for deriving what we call "entity embeddings", a consistent way to represent
different dynamic entities across multiple games in the same representation. In
this paper we introduce the learned representation, along with some evidence
towards its quality and future utility.
- Abstract(参考訳): 機械学習(PCGML)による手続き的コンテンツ生成は、機械学習による新しいビデオゲームコンテンツの生成に成功している。
しかし、作品の大半は、ゲームレベルや視覚要素を含む静的なゲームコンテンツの生産に焦点を当てている。
ゲームメカニズムなど、動的なゲームコンテンツに関する作業はずっと少なくなっている。
この理由の1つは、動的ゲームコンテンツの一貫した表現が欠如していることであり、これは多くの統計的機械学習アプローチの鍵である。
我々は、複数のゲームにまたがる異なる動的エンティティを同じ表現で表現するための一貫した方法である「エンティティ埋め込み」を導出するためのオートエンコーダを提案する。
本稿では,学習した表現と,その品質と将来性に関するいくつかの証拠を紹介する。
関連論文リスト
- Unbounded: A Generative Infinite Game of Character Life Simulation [68.37260000219479]
生成モデルを用いて,有限なハードコードシステムの境界を超越したゲームである生成無限ゲームの概念を導入する。
我々は、生成AIの最近の進歩を活用して、生成モデルに完全にカプセル化されたキャラクターライフシミュレーションゲームUnboundedを作成する。
論文 参考訳(メタデータ) (2024-10-24T17:59:31Z) - A Text-to-Game Engine for UGC-Based Role-Playing Games [6.5715027492220734]
本稿では,単純なテキスト入力を複雑でインタラクティブなRPG体験に変換する基礎モデルを用いたテキスト・ツー・ゲームエンジンの新しいフレームワークを提案する。
エンジンは、ゲームストーリーをマルチモーダル形式で動的にレンダリングし、プレイヤアクションに応じて、ゲームキャラクタ、環境、メカニックをリアルタイムで調整する。
論文 参考訳(メタデータ) (2024-07-11T05:33:19Z) - Towards General Game Representations: Decomposing Games Pixels into
Content and Style [2.570570340104555]
ゲームのピクセル表現を学習することは、複数の下流タスクにまたがる人工知能の恩恵を受けることができる。
本稿では,コンピュータビジョンエンコーダの汎用化について検討する。
我々は、ゲームジャンルに基づく事前学習されたビジョントランスフォーマーエンコーダと分解技術を用いて、個別のコンテンツとスタイルの埋め込みを得る。
論文 参考訳(メタデータ) (2023-07-20T17:53:04Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Masked World Models for Visual Control [90.13638482124567]
視覚表現学習と動的学習を分離する視覚モデルに基づくRLフレームワークを提案する。
提案手法は,様々な視覚ロボット作業における最先端性能を実現する。
論文 参考訳(メタデータ) (2022-06-28T18:42:27Z) - Learning Task-Independent Game State Representations from Unlabeled
Images [2.570570340104555]
自己教師付き学習(SSL)技術は、複雑なデータからコンパクトで情報的な表現を学ぶために広く用いられている。
本稿では,ゲームの状態表現を正確に学習するタスクにSSLメソッドを活用できるかどうかを検討する。
論文 参考訳(メタデータ) (2022-06-13T21:37:58Z) - Multi-Game Decision Transformers [49.257185338595434]
そこで本研究では,1つのトランスフォーマーモデルを用いて,最大46個のAtariゲーム群を,人間に近いパフォーマンスで同時にプレイ可能であることを示す。
オンラインやオフラインのRL手法や行動クローンなど,マルチゲーム設定におけるいくつかのアプローチを比較した。
マルチゲーム決定変換モデルは、最高のスケーラビリティとパフォーマンスを提供します。
論文 参考訳(メタデータ) (2022-05-30T16:55:38Z) - Teach me to play, gamer! Imitative learning in computer games via
linguistic description of complex phenomena and decision tree [55.41644538483948]
本稿では,複雑な現象の言語記述に基づく模倣による新しい機械学習モデルを提案する。
この手法は,ゲーム開発における知的エージェントの動作を設計し,実装するための優れた代替手段となる。
論文 参考訳(メタデータ) (2021-01-06T21:14:10Z) - Generating Gameplay-Relevant Art Assets with Transfer Learning [0.8164433158925593]
本稿では,ゲームプレイの関連性に基づいて,新たなゲームビジュアルを修正・生成するCVAEシステムを提案する。
実験結果から,トランスファーラーニングアプローチを採用することで,見えないデータに対する視覚的品質と安定性が向上する可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-04T20:58:40Z) - Learning to Simulate Dynamic Environments with GameGAN [109.25308647431952]
本稿では,エージェントが環境と対話するのを見ることでシミュレーターを学習することを目的とする。
ゲームGANは,学習中にスクリーンプレイやキーボード操作を取り入れることで,所望のゲームを視覚的に模倣することを学習する生成モデルである。
論文 参考訳(メタデータ) (2020-05-25T14:10:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。