論文の概要: Game-TARS: Pretrained Foundation Models for Scalable Generalist Multimodal Game Agents
- arxiv url: http://arxiv.org/abs/2510.23691v1
- Date: Mon, 27 Oct 2025 17:43:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.386382
- Title: Game-TARS: Pretrained Foundation Models for Scalable Generalist Multimodal Game Agents
- Title(参考訳): Game-TARS: スケーラブル汎用マルチモーダルゲームエージェントのための事前訓練されたファンデーションモデル
- Authors: Zihao Wang, Xujing Li, Yining Ye, Junjie Fang, Haoming Wang, Longxiang Liu, Shihao Liang, Junting Lu, Zhiyong Wu, Jiazhan Feng, Wanjun Zhong, Zili Li, Yu Wang, Yu Miao, Bo Zhou, Yuanfan Li, Hao Wang, Zhongkai Zhao, Faming Wu, Zhengxuan Jiang, Weihao Tan, Heyuan Yao, Shi Yan, Xiangyang Li, Yitao Liang, Yujia Qin, Guang Shi,
- Abstract要約: 本稿では,汎用ゲームエージェントであるGame-TARSについて紹介する。
Game-TARSは500B以上のトークンで事前トレーニングされており、様々な軌跡とマルチモーダルデータがある。
実験により、Game-TARSは、オープンワールドMinecraftタスクにおける以前のソータモデルの約2倍の成功率を達成することが示された。
- 参考スコア(独自算出の注目度): 56.25101378553328
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We present Game-TARS, a generalist game agent trained with a unified, scalable action space anchored to human-aligned native keyboard-mouse inputs. Unlike API- or GUI-based approaches, this paradigm enables large-scale continual pre-training across heterogeneous domains, including OS, web, and simulation games. Game-TARS is pre-trained on over 500B tokens with diverse trajectories and multimodal data. Key techniques include a decaying continual loss to reduce causal confusion and an efficient Sparse-Thinking strategy that balances reasoning depth and inference cost. Experiments show that Game-TARS achieves about 2 times the success rate over the previous sota model on open-world Minecraft tasks, is close to the generality of fresh humans in unseen web 3d games, and outperforms GPT-5, Gemini-2.5-Pro, and Claude-4-Sonnet in FPS benchmarks. Scaling results on training-time and test-time confirm that the unified action space sustains improvements when scaled to cross-game and multimodal data. Our results demonstrate that simple, scalable action representations combined with large-scale pre-training provide a promising path toward generalist agents with broad computer-use abilities.
- Abstract(参考訳): 本稿では,汎用ゲームエージェントであるGame-TARSについて紹介する。
APIベースのアプローチやGUIベースのアプローチとは異なり、このパラダイムはOS、Web、シミュレーションゲームを含む異種ドメインにわたる大規模な継続的事前トレーニングを可能にする。
Game-TARSは500B以上のトークンで事前トレーニングされており、様々な軌跡とマルチモーダルデータがある。
主なテクニックは、因果的混乱を減らすための崩壊する連続損失と、推論の深さと推論コストのバランスをとる効率的なスパースシンキング戦略である。
GPT-5, Gemini-2.5-Pro, Claude-4-SonnetをFPSベンチマークで上回り, オープンワールドのMinecraftタスクにおける従来のソタモデルよりも約2倍の成功率を示し, 未確認のウェブ3dゲームにおける新鮮な人間の一般化に近づいた。
トレーニング時間とテスト時間のスケーリング結果から、ゲーム間およびマルチモーダルデータにスケールすると、統一されたアクション空間が改善を持続することを確認した。
この結果から,大規模事前学習と組み合わせたシンプルでスケーラブルな行動表現が,コンピュータ利用能力の広い一般エージェントへ有望な道筋を提供することが示された。
関連論文リスト
- Learning Representations in Video Game Agents with Supervised Contrastive Imitation Learning [0.6299766708197881]
本稿では,教師付きコントラスト学習(SupCon)のイミテーション学習(IL)への応用について紹介する。
目標は、アクション関連因子をよりよく捉えた観測結果の潜在表現を得ることである。
Astro BotとReturnalの3Dゲームおよび複数の2Dアタリゲームの実験では、表現品質の向上、学習収束の高速化、一般化の向上が示されている。
論文 参考訳(メタデータ) (2025-09-15T13:00:29Z) - Scaling Offline Model-Based RL via Jointly-Optimized World-Action Model Pretraining [49.730897226510095]
我々は,60億のトークンデータを持つアタリゲーム上で事前訓練されたオフラインモデルベースRLエージェントであるJOWA: Jointly-Reinforceed World-Action Modelを紹介する。
われわれの最大のエージェントは、1億5000万のパラメータを持ち、10%のサブサンプルオフラインデータだけで事前トレーニングされたゲーム上での人間レベルのパフォーマンス78.9%で、既存の最先端の大規模なオフラインRLベースラインを31.6%上回っている。
論文 参考訳(メタデータ) (2024-10-01T10:25:03Z) - Sports-Traj: A Unified Trajectory Generation Model for Multi-Agent Movement in Sports [53.637837706712794]
任意の軌道をマスク入力として処理する統一軌道生成モデルUniTrajを提案する。
具体的には,空間特徴抽出のためのトランスフォーマーエンコーダ内に埋め込まれたゴースト空間マスキング(GSM)モジュールを紹介する。
バスケットボールU,サッカーU,サッカーUの3つの実践的スポーツデータセットをベンチマークして評価を行った。
論文 参考訳(メタデータ) (2024-05-27T22:15:23Z) - Scaling Laws for Imitation Learning in Single-Agent Games [28.257046559127875]
我々は,モデルとデータサイズを慎重にスケールアップすることで,シングルエージェントゲームにおける模倣学習環境に類似した改善がもたらされるかどうかを検討する。
われわれはまずAtariのさまざまなゲームについて実験を行い、その後NetHackの非常に挑戦的なゲームに焦点を当てた。
IL損失と平均戻り値は計算予算とスムーズに一致し,相関関係が強く,計算最適ILエージェントの訓練には電力法則が適用されることがわかった。
論文 参考訳(メタデータ) (2023-07-18T16:43:03Z) - Multi-Game Decision Transformers [49.257185338595434]
そこで本研究では,1つのトランスフォーマーモデルを用いて,最大46個のAtariゲーム群を,人間に近いパフォーマンスで同時にプレイ可能であることを示す。
オンラインやオフラインのRL手法や行動クローンなど,マルチゲーム設定におけるいくつかのアプローチを比較した。
マルチゲーム決定変換モデルは、最高のスケーラビリティとパフォーマンスを提供します。
論文 参考訳(メタデータ) (2022-05-30T16:55:38Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。