論文の概要: NitroGen: An Open Foundation Model for Generalist Gaming Agents
- arxiv url: http://arxiv.org/abs/2601.02427v1
- Date: Sun, 04 Jan 2026 16:24:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.656236
- Title: NitroGen: An Open Foundation Model for Generalist Gaming Agents
- Title(参考訳): NitroGen: 汎用ゲームエージェントのためのオープンファンデーションモデル
- Authors: Loïc Magne, Anas Awadalla, Guanzhi Wang, Yinzhen Xu, Joshua Belofsky, Fengyuan Hu, Joohwan Kim, Ludwig Schmidt, Georgia Gkioxari, Jan Kautz, Yisong Yue, Yejin Choi, Yuke Zhu, Linxi "Jim" Fan,
- Abstract要約: NitroGenは、ジェネラリストゲームエージェントのためのビジョンアクション基盤モデルである。
1000以上のゲームで4万時間のゲームプレイビデオでトレーニングされている。
- 参考スコア(独自算出の注目度): 101.41866522979548
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We introduce NitroGen, a vision-action foundation model for generalist gaming agents that is trained on 40,000 hours of gameplay videos across more than 1,000 games. We incorporate three key ingredients: 1) an internet-scale video-action dataset constructed by automatically extracting player actions from publicly available gameplay videos, 2) a multi-game benchmark environment that can measure cross-game generalization, and 3) a unified vision-action model trained with large-scale behavior cloning. NitroGen exhibits strong competence across diverse domains, including combat encounters in 3D action games, high-precision control in 2D platformers, and exploration in procedurally generated worlds. It transfers effectively to unseen games, achieving up to 52% relative improvement in task success rates over models trained from scratch. We release the dataset, evaluation suite, and model weights to advance research on generalist embodied agents.
- Abstract(参考訳): 我々は、一般的なゲームエージェントのためのビジョンアクション基盤モデルであるNitroGenを紹介します。
主な材料は3つある。
1) 公開されているゲームプレイビデオからプレイヤーアクションを自動的に抽出して構築したインターネット規模のビデオアクションデータセット。
2)クロスゲーム一般化を計測できるマルチゲームベンチマーク環境、及び
3)大規模行動クローニングを訓練した統合視覚行動モデル。
NitroGenは、3Dアクションゲームでの戦闘遭遇、2Dプラットフォームでの高精度制御、手続き的に生成された世界の探索など、さまざまな領域で強力な能力を発揮している。
効果的に未確認のゲームに移行し、スクラッチからトレーニングされたモデルよりもタスク成功率を最大52%向上させる。
汎用的なエンボディエージェントの研究を進めるために、データセット、評価スイート、モデルウェイトをリリースする。
関連論文リスト
- Game-TARS: Pretrained Foundation Models for Scalable Generalist Multimodal Game Agents [56.25101378553328]
本稿では,汎用ゲームエージェントであるGame-TARSについて紹介する。
Game-TARSは500B以上のトークンで事前トレーニングされており、様々な軌跡とマルチモーダルデータがある。
実験により、Game-TARSは、オープンワールドMinecraftタスクにおける以前のソータモデルの約2倍の成功率を達成することが示された。
論文 参考訳(メタデータ) (2025-10-27T17:43:51Z) - Pixels to Play: A Foundation Model for 3D Gameplay [4.380638021267298]
そこで,Pixels2Play-0.1(P2P0.1)を紹介した。
論文 参考訳(メタデータ) (2025-08-19T22:24:50Z) - GameFactory: Creating New Games with Generative Interactive Videos [50.368593726912856]
生成ビデオは、新しいコンテンツを自律的に作成することによって、ゲーム開発に革命をもたらす可能性がある。
本稿では,アクション制御型シーン汎用ゲーム生成フレームワークであるGameFactoryを紹介する。
実験により,GameFactoryはオープンドメインアクション制御可能なゲームビデオを効果的に生成することを示した。
論文 参考訳(メタデータ) (2025-01-14T18:57:21Z) - GameGen-X: Interactive Open-world Game Video Generation [10.001128258269675]
我々は,オープンワールドゲームビデオの生成とインタラクティブ制御に特化して設計された,最初の拡散トランスフォーマーモデルであるGameGen-Xを紹介する。
革新的なキャラクター、動的環境、複雑なアクション、多様なイベントなど、一連のゲームエンジン機能をシミュレートする。
インタラクティブな制御性を提供し、現在のクリップに基づいたコンテンツの予測と将来的な変更を可能にし、ゲームプレイシミュレーションを可能にする。
論文 参考訳(メタデータ) (2024-11-01T17:59:17Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Multi-Game Decision Transformers [49.257185338595434]
そこで本研究では,1つのトランスフォーマーモデルを用いて,最大46個のAtariゲーム群を,人間に近いパフォーマンスで同時にプレイ可能であることを示す。
オンラインやオフラインのRL手法や行動クローンなど,マルチゲーム設定におけるいくつかのアプローチを比較した。
マルチゲーム決定変換モデルは、最高のスケーラビリティとパフォーマンスを提供します。
論文 参考訳(メタデータ) (2022-05-30T16:55:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。