論文の概要: Game-invariant Features Through Contrastive and Domain-adversarial Learning
- arxiv url: http://arxiv.org/abs/2505.17328v1
- Date: Thu, 22 May 2025 22:45:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.721015
- Title: Game-invariant Features Through Contrastive and Domain-adversarial Learning
- Title(参考訳): コントラスト学習とドメイン・アドバイザリー学習によるゲーム不変の特徴
- Authors: Dylan Kline,
- Abstract要約: 基礎的なゲームイメージエンコーダは、しばしばゲーム固有の視覚スタイルに適合する。
対照的な学習とドメイン・アドバイザリ・トレーニングを組み合わせてゲーム不変の視覚特徴を学習する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Foundational game-image encoders often overfit to game-specific visual styles, undermining performance on downstream tasks when applied to new games. We present a method that combines contrastive learning and domain-adversarial training to learn game-invariant visual features. By simultaneously encouraging similar content to cluster and discouraging game-specific cues via an adversarial domain classifier, our approach produces embeddings that generalize across diverse games. Experiments on the Bingsu game-image dataset (10,000 screenshots from 10 games) demonstrate that after only a few training epochs, our model's features no longer cluster by game, indicating successful invariance and potential for improved cross-game transfer (e.g., glitch detection) with minimal fine-tuning. This capability paves the way for more generalizable game vision models that require little to no retraining on new games.
- Abstract(参考訳): 基礎的なゲームイメージエンコーダは、しばしばゲーム固有の視覚スタイルに適合し、新しいゲームに適用した場合の下流タスクのパフォーマンスを損なう。
対照的な学習とドメイン・アドバイザリ・トレーニングを組み合わせてゲーム不変の視覚特徴を学習する手法を提案する。
類似コンテンツとクラスタ化を同時に奨励し,対戦型ドメイン分類器を介してゲーム固有のキューを回避することにより,多様なゲームにまたがる埋め込みを生成する。
Bingsuゲームイメージデータセット(10ゲームから10,000のスクリーンショット)の実験では、ほんの数回のトレーニング期間の後、我々のモデルの特徴はもはやクラスタ・バイ・ゲームではなく、最小限の微調整でクロスゲーム転送(グリッチ検出など)を改善する可能性を示している。
この能力は、新しいゲームの再トレーニングをほとんど必要としない、より一般化可能なゲームビジョンモデルへの道を開く。
関連論文リスト
- Gameplay Highlights Generation [3.019500891118183]
この作業により、ゲーマーは、ゲームプレイセッションから目を引くハイライトリールを自動的に生成することで、ソーシャルメディア上でゲーム体験を共有することができる。
我々は、VIAビデオアノテータを用いて、人間が注釈付けした興味深いイベントを含む、社内ゲームプレイイベント検出データセットを開発した。
マルチモーダルな汎用ビデオ理解モデルであるX-CLIPを,ゲームエンジニアリングを使わずに複数のジャンルにまたがって一般化するデータセットを用いて微調整した。
論文 参考訳(メタデータ) (2025-05-12T16:28:22Z) - Towards General Game Representations: Decomposing Games Pixels into
Content and Style [2.570570340104555]
ゲームのピクセル表現を学習することは、複数の下流タスクにまたがる人工知能の恩恵を受けることができる。
本稿では,コンピュータビジョンエンコーダの汎用化について検討する。
我々は、ゲームジャンルに基づく事前学習されたビジョントランスフォーマーエンコーダと分解技術を用いて、個別のコンテンツとスタイルの埋め込みを得る。
論文 参考訳(メタデータ) (2023-07-20T17:53:04Z) - On the Convergence of No-Regret Learning Dynamics in Time-Varying Games [89.96815099996132]
時間変化ゲームにおける楽観的勾配降下(OGD)の収束を特徴付ける。
我々のフレームワークは、ゼロサムゲームにおけるOGDの平衡ギャップに対して鋭い収束境界をもたらす。
また,静的ゲームにおける動的後悔の保証に関する新たな洞察も提供する。
論文 参考訳(メタデータ) (2023-01-26T17:25:45Z) - Game State Learning via Game Scene Augmentation [2.570570340104555]
我々はゲームエンジンを利用して、異なるゲーム状態の特定の、高度に制御されたレンダリングを定義し、合成する新しいゲームシーン拡張技術、GameCLRを紹介した。
この結果から,ゲームCLRはベースラインよりもゲーム映像からゲームの状態情報を正確に推測できる可能性が示唆された。
論文 参考訳(メタデータ) (2022-07-04T09:40:14Z) - Multi-Game Decision Transformers [49.257185338595434]
そこで本研究では,1つのトランスフォーマーモデルを用いて,最大46個のAtariゲーム群を,人間に近いパフォーマンスで同時にプレイ可能であることを示す。
オンラインやオフラインのRL手法や行動クローンなど,マルチゲーム設定におけるいくつかのアプローチを比較した。
マルチゲーム決定変換モデルは、最高のスケーラビリティとパフォーマンスを提供します。
論文 参考訳(メタデータ) (2022-05-30T16:55:38Z) - Contrastive Learning of Generalized Game Representations [2.323282558557423]
ピクセルを通してゲームを表現することは、汎用的で汎用的なゲームモデルを構築する上で有望なアプローチを提供する。
ゲームは単なる画像ではないが、ゲーム画素で訓練されたニューラルネットワークモデルは、ゲームの内容ではなく、画像の視覚的スタイルの違いをキャプチャすることが多い。
本稿では,コントラスト学習の最近の進歩を基盤として,ゲームにおける表現学習のメリットを示す。
論文 参考訳(メタデータ) (2021-06-18T11:17:54Z) - Unsupervised Visual Representation Learning by Tracking Patches in Video [88.56860674483752]
本研究では,コンピュータビジョンシステムのプロキシタスクとしてトラッキングを用いて視覚表現を学習することを提案する。
子どもたちがプレイするキャッチゲームをベースに、視覚表現を学ぶ3D-CNNモデルのためのキャッチ・ザ・パッチ(CtP)ゲームを設計します。
論文 参考訳(メタデータ) (2021-05-06T09:46:42Z) - Generating Gameplay-Relevant Art Assets with Transfer Learning [0.8164433158925593]
本稿では,ゲームプレイの関連性に基づいて,新たなゲームビジュアルを修正・生成するCVAEシステムを提案する。
実験結果から,トランスファーラーニングアプローチを採用することで,見えないデータに対する視覚的品質と安定性が向上する可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-04T20:58:40Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Watching the World Go By: Representation Learning from Unlabeled Videos [78.22211989028585]
近年の単一画像教師なし表現学習技術は,様々なタスクにおいて顕著な成功を収めている。
本稿では,この自然な拡張を無償で提供することを論じる。
そこで本稿では,ビデオノイズコントラスト推定(Voice Noise Contrastive Estimation)を提案する。
論文 参考訳(メタデータ) (2020-03-18T00:07:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。