論文の概要: Contrastive Learning of Generalized Game Representations
- arxiv url: http://arxiv.org/abs/2106.10060v1
- Date: Fri, 18 Jun 2021 11:17:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 14:22:35.321064
- Title: Contrastive Learning of Generalized Game Representations
- Title(参考訳): 一般化ゲーム表現のコントラスト学習
- Authors: Chintan Trivedi, Antonios Liapis and Georgios N. Yannakakis
- Abstract要約: ピクセルを通してゲームを表現することは、汎用的で汎用的なゲームモデルを構築する上で有望なアプローチを提供する。
ゲームは単なる画像ではないが、ゲーム画素で訓練されたニューラルネットワークモデルは、ゲームの内容ではなく、画像の視覚的スタイルの違いをキャプチャすることが多い。
本稿では,コントラスト学習の最近の進歩を基盤として,ゲームにおける表現学習のメリットを示す。
- 参考スコア(独自算出の注目度): 2.323282558557423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Representing games through their pixels offers a promising approach for
building general-purpose and versatile game models. While games are not merely
images, neural network models trained on game pixels often capture differences
of the visual style of the image rather than the content of the game. As a
result, such models cannot generalize well even within similar games of the
same genre. In this paper we build on recent advances in contrastive learning
and showcase its benefits for representation learning in games. Learning to
contrast images of games not only classifies games in a more efficient manner;
it also yields models that separate games in a more meaningful fashion by
ignoring the visual style and focusing, instead, on their content. Our results
in a large dataset of sports video games containing 100k images across 175
games and 10 game genres suggest that contrastive learning is better suited for
learning generalized game representations compared to conventional supervised
learning. The findings of this study bring us closer to universal visual
encoders for games that can be reused across previously unseen games without
requiring retraining or fine-tuning.
- Abstract(参考訳): ピクセルを通してゲームを表現することは、汎用的で汎用的なゲームモデルを構築するための有望なアプローチを提供する。
ゲームは単なる画像ではないが、ゲーム画素で訓練されたニューラルネットワークモデルは、ゲームの内容ではなく、画像の視覚的スタイルの違いをキャプチャすることが多い。
結果として、そのようなモデルは同じジャンルの類似ゲームでもうまく一般化できない。
本稿では,コントラスト学習の最近の進歩と,ゲームにおける表現学習の利点について述べる。
ゲームのイメージをコントラストする学習は、ゲームをより効率的に分類するだけでなく、視覚的なスタイルを無視してコンテンツに集中することによって、より意味のある方法でゲームを分離するモデルを生成する。
本研究は、175種類のゲームと10種類のゲームジャンルにまたがる10k画像を含むスポーツビデオゲームの大規模データセットを用いて,一般的なゲーム表現の学習に,従来の教師付き学習よりもコントラスト学習が適していることを示す。
本研究の成果は,再学習や微調整を必要とせず,未確認ゲーム間で再利用可能なゲーム用ユニバーサルビジュアルエンコーダに近づいた。
関連論文リスト
- Learning to Play Video Games with Intuitive Physics Priors [2.1548132286330453]
我々は、多数のビデオゲームでよく一般化されたオブジェクトベースの入力表現を設計する。
これらの表現を用いて,幼児に類似したゲームを学ぶエージェントの能力を評価する。
以上の結果から,人間のようなオブジェクトインタラクションのセットアップが,複数のビデオゲームを遊べるように学習できることが示唆された。
論文 参考訳(メタデータ) (2024-09-20T20:30:27Z) - Serious Games in Digital Gaming: A Comprehensive Review of Applications,
Game Engines and Advancements [55.2480439325792]
近年,ユーザを同時に教育し,楽しませる能力によって,真剣なゲームの人気が高まっている。
本稿では,様々なタイプのデジタルゲームの概要を概観し,真剣なゲームジャンルに展開する。
ゲーム開発業界で最も広く使われているゲームエンジンを提示し、Unityのゲームマシンの利点を拡張する。
論文 参考訳(メタデータ) (2023-11-03T09:17:09Z) - Towards General Game Representations: Decomposing Games Pixels into
Content and Style [2.570570340104555]
ゲームのピクセル表現を学習することは、複数の下流タスクにまたがる人工知能の恩恵を受けることができる。
本稿では,コンピュータビジョンエンコーダの汎用化について検討する。
我々は、ゲームジャンルに基づく事前学習されたビジョントランスフォーマーエンコーダと分解技術を用いて、個別のコンテンツとスタイルの埋め込みを得る。
論文 参考訳(メタデータ) (2023-07-20T17:53:04Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Saliency Guided Contrastive Learning on Scene Images [71.07412958621052]
我々は、学習中のモデルの出力から導かれるサリエンシマップを活用し、差別的な領域を強調し、対照的な学習全体をガイドする。
提案手法は,画像上の自己教師学習の性能を,画像の線形評価において+1.1,+4.3,+2.2の精度で向上させる。
論文 参考訳(メタデータ) (2023-02-22T15:54:07Z) - WinoGAViL: Gamified Association Benchmark to Challenge
Vision-and-Language Models [91.92346150646007]
本研究では,視覚・言語関係を収集するオンラインゲームであるWinoGAViLを紹介する。
私たちはこのゲームを使って3.5Kのインスタンスを収集し、それらが人間には直感的だが最先端のAIモデルには挑戦的であることを発見した。
我々の分析とプレイヤーからのフィードバックは、収集された協会が多様な推論スキルを必要とすることを示している。
論文 参考訳(メタデータ) (2022-07-25T23:57:44Z) - Game State Learning via Game Scene Augmentation [2.570570340104555]
我々はゲームエンジンを利用して、異なるゲーム状態の特定の、高度に制御されたレンダリングを定義し、合成する新しいゲームシーン拡張技術、GameCLRを紹介した。
この結果から,ゲームCLRはベースラインよりもゲーム映像からゲームの状態情報を正確に推測できる可能性が示唆された。
論文 参考訳(メタデータ) (2022-07-04T09:40:14Z) - From Language Games to Drawing Games [6.93765975252665]
我々は,創発的言語研究によるコミュニケーションゲーム開発におけるアプローチに類似した,一組の描画ゲームを発明する。
重要な違いは、描画ゲームは言語ゲームよりもレシーバーからの労力がはるかに少ないことである。
生成臨界ループを閉じることで画像を生成する予備実験を行った。
論文 参考訳(メタデータ) (2020-10-06T15:32:32Z) - Navigating the Landscape of Multiplayer Games [20.483315340460127]
大規模ゲームの応答グラフにネットワーク測度を適用することで,ゲームのランドスケープを創出できることを示す。
本研究は, 標準ゲームから複雑な経験ゲームまで, 訓練されたエージェント同士のパフォーマンスを計測する領域における知見について述べる。
論文 参考訳(メタデータ) (2020-05-04T16:58:17Z) - Watching the World Go By: Representation Learning from Unlabeled Videos [78.22211989028585]
近年の単一画像教師なし表現学習技術は,様々なタスクにおいて顕著な成功を収めている。
本稿では,この自然な拡張を無償で提供することを論じる。
そこで本稿では,ビデオノイズコントラスト推定(Voice Noise Contrastive Estimation)を提案する。
論文 参考訳(メタデータ) (2020-03-18T00:07:21Z) - Model-Based Reinforcement Learning for Atari [89.3039240303797]
エージェントがモデルフリーの手法よりも少ないインタラクションでAtariゲームを解くことができることを示す。
本実験は,エージェントと環境間の100kの相互作用の少ないデータ構造における,AtariゲームにおけるSimPLeの評価である。
論文 参考訳(メタデータ) (2019-03-01T15:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。