論文の概要: Agents Play Thousands of 3D Video Games
- arxiv url: http://arxiv.org/abs/2503.13356v1
- Date: Mon, 17 Mar 2025 16:42:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 15:59:17.201837
- Title: Agents Play Thousands of 3D Video Games
- Title(参考訳): エージェントが何千もの3Dビデオゲームをプレイ
- Authors: Zhongwen Xu, Xianliang Wang, Siyi Li, Tao Yu, Liang Wang, Qiang Fu, Wei Yang,
- Abstract要約: 我々は、何千もの3Dビデオゲームをプレイできる人工知能エージェントを開発するための新しいフレームワーク、Portalを提示する。
意思決定問題を言語モデリングタスクに変換することで,大規模言語モデル(LLM)を利用して行動木を生成する。
当社のフレームワークでは,ルールベースのノードとニューラルネットワークコンポーネントを組み合わせたハイブリッドポリシ構造を導入し,高レベルの戦略的推論と高精度な低レベル制御を実現する。
- 参考スコア(独自算出の注目度): 26.290863972751428
- License:
- Abstract: We present PORTAL, a novel framework for developing artificial intelligence agents capable of playing thousands of 3D video games through language-guided policy generation. By transforming decision-making problems into language modeling tasks, our approach leverages large language models (LLMs) to generate behavior trees represented in domain-specific language (DSL). This method eliminates the computational burden associated with traditional reinforcement learning approaches while preserving strategic depth and rapid adaptability. Our framework introduces a hybrid policy structure that combines rule-based nodes with neural network components, enabling both high-level strategic reasoning and precise low-level control. A dual-feedback mechanism incorporating quantitative game metrics and vision-language model analysis facilitates iterative policy improvement at both tactical and strategic levels. The resulting policies are instantaneously deployable, human-interpretable, and capable of generalizing across diverse gaming environments. Experimental results demonstrate PORTAL's effectiveness across thousands of first-person shooter (FPS) games, showcasing significant improvements in development efficiency, policy generalization, and behavior diversity compared to traditional approaches. PORTAL represents a significant advancement in game AI development, offering a practical solution for creating sophisticated agents that can operate across thousands of commercial video games with minimal development overhead. Experiment results on the 3D video games are best viewed on https://zhongwen.one/projects/portal .
- Abstract(参考訳): 我々は、言語誘導ポリシー生成を通じて数千の3Dビデオゲームをプレイできる人工知能エージェントを開発するための新しいフレームワーク、Portalを提示する。
意思決定問題を言語モデリングタスクに変換することで、我々のアプローチは大規模言語モデル(LLM)を活用し、ドメイン固有言語(DSL)で表される振る舞い木を生成する。
本手法は,戦略深度と迅速な適応性を維持しつつ,従来の強化学習手法に関連する計算負担を解消する。
当社のフレームワークでは,ルールベースのノードとニューラルネットワークコンポーネントを組み合わせたハイブリッドポリシ構造を導入し,高レベルの戦略的推論と高精度な低レベル制御を実現する。
定量的ゲームメトリクスと視覚言語モデル分析を取り入れたデュアルフィードバック機構は、戦術的および戦略的なレベルで反復的な政策改善を促進する。
結果として得られるポリシーは、即時デプロイ可能で、人間解釈可能で、多様なゲーム環境をまたいで一般化することができる。
実験の結果、Portalは何千ものファーストパーソンシューティングゲーム(FPS)で有効性を示し、従来のアプローチと比較して開発効率、ポリシーの一般化、行動の多様性を大きく改善した。
PortalはゲームAI開発における重要な進歩であり、開発オーバーヘッドを最小限に抑えた数千の商用ビデオゲームをまたいで動作可能な洗練されたエージェントを作成するための実用的なソリューションを提供する。
3Dビデオゲームの実験結果はhttps://zhongwen.one/projects/portal.comで最もよく見られる。
関連論文リスト
- Policy Learning with a Language Bottleneck [65.99843627646018]
PLLBB(Policy Learning with a Language Bottleneck)は、AIエージェントが言語規則を生成するためのフレームワークである。
PLLBBは、言語モデルによってガイドされるルール生成ステップと、エージェントがルールによってガイドされる新しいポリシーを学ぶ更新ステップとを交互に使用する。
2人のプレイヤーによるコミュニケーションゲーム、迷路解決タスク、および2つの画像再構成タスクにおいて、PLLBBエージェントはより解釈可能で一般化可能な振る舞いを学習できるだけでなく、学習したルールを人間のユーザと共有できることを示す。
論文 参考訳(メタデータ) (2024-05-07T08:40:21Z) - Scaling Instructable Agents Across Many Simulated Worlds [70.97268311053328]
私たちのゴールは、シミュレーションされた3D環境で人間ができることを何でも達成できるエージェントを開発することです。
我々のアプローチは、最小限の仮定を示唆しながら、言語駆動の一般性に焦点を当てている。
我々のエージェントは、汎用的なヒューマンライクなインタフェースを使って、リアルタイムで環境と対話する。
論文 参考訳(メタデータ) (2024-03-13T17:50:32Z) - An Interactive Agent Foundation Model [49.77861810045509]
本稿では,AIエージェントを訓練するための新しいマルチタスクエージェントトレーニングパラダイムを用いた対話型エージェント基礎モデルを提案する。
トレーニングパラダイムは、視覚マスク付きオートエンコーダ、言語モデリング、次世代の予測など、多様な事前学習戦略を統一する。
私たちは、ロボティクス、ゲームAI、ヘルスケアという3つの異なる領域でフレームワークのパフォーマンスを実演します。
論文 参考訳(メタデータ) (2024-02-08T18:58:02Z) - Strategic Reasoning with Language Models [35.63300060111918]
戦略的推論は、エージェントが様々な状況において他のエージェントと協力し、コミュニケーションし、競合することを可能にする。
既存の戦略ゲームに対するアプローチは、広範なトレーニングに依存しており、再訓練なしに新しいシナリオやゲームに一般化しない戦略を生み出している。
本稿では,AIエージェントの戦略的推論を可能にするために,事前訓練された大規模言語モデルと数発の連鎖例を用いたアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-30T16:09:19Z) - Multi-Game Decision Transformers [49.257185338595434]
そこで本研究では,1つのトランスフォーマーモデルを用いて,最大46個のAtariゲーム群を,人間に近いパフォーマンスで同時にプレイ可能であることを示す。
オンラインやオフラインのRL手法や行動クローンなど,マルチゲーム設定におけるいくつかのアプローチを比較した。
マルチゲーム決定変換モデルは、最高のスケーラビリティとパフォーマンスを提供します。
論文 参考訳(メタデータ) (2022-05-30T16:55:38Z) - Generalization in Text-based Games via Hierarchical Reinforcement
Learning [42.70991837415775]
本稿では,知識グラフに基づくRLエージェントを基盤とした階層型フレームワークを提案する。
高いレベルでは、メタポリシーが実行され、ゲーム全体をテキストゴールによって指定されたサブタスクのセットに分解する。
低レベルにおいては、目標条件付き強化学習を行うためにサブ政治が実行される。
論文 参考訳(メタデータ) (2021-09-21T05:27:33Z) - Human-Level Reinforcement Learning through Theory-Based Modeling,
Exploration, and Planning [27.593497502386143]
理論に基づく強化学習は、人間のような直感的な理論を使って環境を探索しモデル化する。
EMPAと呼ばれるゲームプレイエージェントのアプローチをインスタンス化する。
EMPAは90のAtariスタイルのビデオゲームで人間の学習効率と一致します。
論文 参考訳(メタデータ) (2021-07-27T01:38:13Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - Deep Reinforcement Learning with Stacked Hierarchical Attention for
Text-based Games [64.11746320061965]
自然言語の文脈におけるインタラクティブなシミュレーションであるテキストベースゲームの強化学習について検討する。
エージェントの動作が解釈可能な推論手順によって生成され、支援されるように、意思決定のための知識グラフを用いた明示的な推論を行うことを目指している。
提案手法を多数の人為的ベンチマークゲームで広範囲に評価し,本手法が既存のテキストベースエージェントよりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2020-10-22T12:40:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。