論文の概要: Towards General Game Representations: Decomposing Games Pixels into
Content and Style
- arxiv url: http://arxiv.org/abs/2307.11141v1
- Date: Thu, 20 Jul 2023 17:53:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-07-24 14:42:29.434187
- Title: Towards General Game Representations: Decomposing Games Pixels into
Content and Style
- Title(参考訳): 一般ゲーム表現に向けて:ゲームピクセルをコンテンツとスタイルに分解する
- Authors: Chintan Trivedi, Konstantinos Makantasis, Antonios Liapis and Georgios
N. Yannakakis
- Abstract要約: ゲームのピクセル表現を学習することは、複数の下流タスクにまたがる人工知能の恩恵を受けることができる。
本稿では,コンピュータビジョンエンコーダの汎用化について検討する。
我々は、ゲームジャンルに基づく事前学習されたビジョントランスフォーマーエンコーダと分解技術を用いて、個別のコンテンツとスタイルの埋め込みを得る。
- 参考スコア(独自算出の注目度): 2.570570340104555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: On-screen game footage contains rich contextual information that players
process when playing and experiencing a game. Learning pixel representations of
games can benefit artificial intelligence across several downstream tasks
including game-playing agents, procedural content generation, and player
modelling. The generalizability of these methods, however, remains a challenge,
as learned representations should ideally be shared across games with similar
game mechanics. This could allow, for instance, game-playing agents trained on
one game to perform well in similar games with no re-training. This paper
explores how generalizable pre-trained computer vision encoders can be for such
tasks, by decomposing the latent space into content embeddings and style
embeddings. The goal is to minimize the domain gap between games of the same
genre when it comes to game content critical for downstream tasks, and ignore
differences in graphical style. We employ a pre-trained Vision Transformer
encoder and a decomposition technique based on game genres to obtain separate
content and style embeddings. Our findings show that the decomposed embeddings
achieve style invariance across multiple games while still maintaining strong
content extraction capabilities. We argue that the proposed decomposition of
content and style offers better generalization capacities across game
environments independently of the downstream task.
- Abstract(参考訳): オンスクリーンゲーム映像には、プレイヤーがゲームをプレイしたり経験したりする際に処理する豊富なコンテキスト情報が含まれている。
ゲームにおけるピクセル表現の学習は、ゲームプレイエージェント、手続き的コンテンツ生成、プレイヤーのモデリングなど、いくつかの下流タスクにわたる人工知能の恩恵を受ける。
しかし、これらの手法の一般化性は、学習された表現は、類似のゲーム力学を持つゲーム間で理想的に共有されるべきである。
例えば、1つのゲームでトレーニングされたゲームプレイングエージェントは、リトレーニングなしで同様のゲームでうまく動作することができる。
本稿では,コンテンツ埋め込みやスタイル埋め込みに潜伏空間を分解することで,コンピュータビジョンエンコーダの汎用性について考察する。
ゴールは、下流タスクにとって重要なゲームコンテンツに関して、同じジャンルのゲーム間のドメインギャップを最小化し、グラフィックスタイルの違いを無視することである。
予め学習した視覚トランスフォーマエンコーダとゲームジャンルに基づく分解技術を用いて,異なるコンテンツとスタイル埋め込みを得る。
本研究は, コンテント抽出能力を維持しつつ, 複数のゲームにまたがるスタイルの不変性を実現していることを示す。
提案するコンテンツとスタイルの分解は,下流タスクとは無関係に,ゲーム環境にまたがるより良い一般化能力を提供する。
関連論文リスト
- Visual Encoders for Data-Efficient Imitation Learning in Modern Video Games [14.500523121809907]
事前学習したビジュアルエンコーダは、トレーニングコストを大幅に削減することで、ビデオゲームにおける意思決定研究をより容易にすることができることを示す。
この結果から,低解像度画像と数分のデモでは,エンドツーエンドのトレーニングが有効であることが示唆された。
実効的な意思決定を可能にすることに加えて,事前学習したエンコーダは,トレーニングコストを大幅に削減することで,ビデオゲームにおける意思決定研究をより容易に行えることを示す。
論文 参考訳(メタデータ) (2023-12-04T19:52:12Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Game State Learning via Game Scene Augmentation [2.570570340104555]
我々はゲームエンジンを利用して、異なるゲーム状態の特定の、高度に制御されたレンダリングを定義し、合成する新しいゲームシーン拡張技術、GameCLRを紹介した。
この結果から,ゲームCLRはベースラインよりもゲーム映像からゲームの状態情報を正確に推測できる可能性が示唆された。
論文 参考訳(メタデータ) (2022-07-04T09:40:14Z) - Contrastive Learning of Generalized Game Representations [2.323282558557423]
ピクセルを通してゲームを表現することは、汎用的で汎用的なゲームモデルを構築する上で有望なアプローチを提供する。
ゲームは単なる画像ではないが、ゲーム画素で訓練されたニューラルネットワークモデルは、ゲームの内容ではなく、画像の視覚的スタイルの違いをキャプチャすることが多い。
本稿では,コントラスト学習の最近の進歩を基盤として,ゲームにおける表現学習のメリットを示す。
論文 参考訳(メタデータ) (2021-06-18T11:17:54Z) - MarioNette: Self-Supervised Sprite Learning [67.51317291061115]
反復要素のグラフィカルな非絡み合い表現を得るための深層学習手法を提案する。
テクスチャパッチの辞書を共同で学習し,それらをキャンバスに配置するネットワークを訓練することにより,スプライトベースのコンテンツをスパースで一貫性があり,解釈可能な表現に効果的に分解する。
論文 参考訳(メタデータ) (2021-04-29T17:59:01Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - Entity Embedding as Game Representation [0.9645196221785693]
エンゲージ埋め込み」と呼ばれるものを導出するためのオートエンコーダを提案する。
本稿では,学習した表現と,その品質と将来性に関するいくつかの証拠を紹介する。
論文 参考訳(メタデータ) (2020-10-04T21:16:45Z) - Learning to Simulate Dynamic Environments with GameGAN [109.25308647431952]
本稿では,エージェントが環境と対話するのを見ることでシミュレーターを学習することを目的とする。
ゲームGANは,学習中にスクリーンプレイやキーボード操作を取り入れることで,所望のゲームを視覚的に模倣することを学習する生成モデルである。
論文 参考訳(メタデータ) (2020-05-25T14:10:17Z) - Navigating the Landscape of Multiplayer Games [20.483315340460127]
大規模ゲームの応答グラフにネットワーク測度を適用することで,ゲームのランドスケープを創出できることを示す。
本研究は, 標準ゲームから複雑な経験ゲームまで, 訓練されたエージェント同士のパフォーマンスを計測する領域における知見について述べる。
論文 参考訳(メタデータ) (2020-05-04T16:58:17Z) - Benchmarking End-to-End Behavioural Cloning on Video Games [5.863352129133669]
我々は,2010年以降の6ゲームを含む12のビデオゲームにおける行動クローンの一般適用性について検討した。
以上の結果から,これらのエージェントは生演奏では人間と一致しないが,基本力学やルールを学習できることがわかった。
また、データの質や、人間からのデータの記録が、人間の反射によって、状態-作用ミスマッチの対象になっていることを実証する。
論文 参考訳(メタデータ) (2020-04-02T13:31:51Z) - Exploration Based Language Learning for Text-Based Games [72.30525050367216]
本研究は,テキストベースのコンピュータゲームにおいて,最先端の性能を発揮できる探索・模倣学習型エージェントを提案する。
テキストベースのコンピュータゲームは、自然言語でプレイヤーの世界を記述し、プレイヤーがテキストを使ってゲームと対話することを期待する。
これらのゲームは、言語理解、問題解決、および人工エージェントによる言語生成のためのテストベッドと見なすことができるため、興味がある。
論文 参考訳(メタデータ) (2020-01-24T03:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。