論文の概要: Combining Reinforcement Learning and Behavior Trees for NPCs in Video Games with AMD Schola
- arxiv url: http://arxiv.org/abs/2510.14154v1
- Date: Wed, 15 Oct 2025 23:00:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.647324
- Title: Combining Reinforcement Learning and Behavior Trees for NPCs in Video Games with AMD Schola
- Title(参考訳): ビデオゲームにおける強化学習とNPCの行動木とAMDスコラの併用
- Authors: Tian Liu, Alex Cann, Ian Colbert, Mehdi Saeedi,
- Abstract要約: 我々は、実際にRL駆動NPCを使用する場合、Game AIコミュニティが直面する課題を概説する。
我々は,RLと従来の行動木(BT)との交点を,さらに探究すべき重要な分岐点として強調する。
- 参考スコア(独自算出の注目度): 2.011248169400339
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the rapid advancements in the reinforcement learning (RL) research community have been remarkable, the adoption in commercial video games remains slow. In this paper, we outline common challenges the Game AI community faces when using RL-driven NPCs in practice, and highlight the intersection of RL with traditional behavior trees (BTs) as a crucial juncture to be explored further. Although the BT+RL intersection has been suggested in several research papers, its adoption is rare. We demonstrate the viability of this approach using AMD Schola -- a plugin for training RL agents in Unreal Engine -- by creating multi-task NPCs in a complex 3D environment inspired by the commercial video game ``The Last of Us". We provide detailed methodologies for jointly training RL models with BTs while showcasing various skills.
- Abstract(参考訳): 強化学習(RL)研究コミュニティの急速な進歩は目覚ましいが、商用ビデオゲームの普及は依然として遅い。
本稿では、ゲームAIコミュニティが実際にRL駆動のNPCを使用する際に直面する共通課題を概説し、RLと従来の行動木(BT)との交点を更に探究すべき重要な分岐点として強調する。
BT+RL交差点はいくつかの研究論文で提案されているが、採用例は稀である。
商用ビデオゲーム ``The Last of Us' にインスパイアされた複雑な3D環境でマルチタスクのNPCを作成することで,Unreal Engine の RL エージェントをトレーニングするためのプラグインである AMD Schola を用いて,このアプローチの有効性を実証する。
我々は,様々なスキルを示しながら,BTと共同でRLモデルを訓練するための詳細な手法を提案する。
関連論文リスト
- Game-RL: Synthesizing Multimodal Verifiable Game Data to Boost VLMs' General Reasoning [89.93384726755106]
視覚言語強化学習(RL)は主に狭い領域に焦点を当てている。
ビデオゲームは本質的に、検証が容易なリッチなビジュアル要素とメカニクスを提供します。
ビデオゲームにおけるマルチモーダルかつ検証可能な報酬を完全に活用するために,Game-RLを提案する。
論文 参考訳(メタデータ) (2025-05-20T03:47:44Z) - RAGEN: Understanding Self-Evolution in LLM Agents via Multi-Turn Reinforcement Learning [125.96848846966087]
対話型エージェントとしての大規模言語モデル(LLM)のトレーニングには,ユニークな課題がある。
強化学習は静的タスクの進行を可能にする一方で、マルチターンエージェントRLトレーニングは未探索のままである。
本稿では、軌道レベルのエージェントRLのための一般的なフレームワークであるStarPOを提案し、LLMエージェントのトレーニングと評価のためのモジュールシステムであるRAGENを紹介する。
論文 参考訳(メタデータ) (2025-04-24T17:57:08Z) - Reinforcing Competitive Multi-Agents for Playing 'So Long Sucker' [0.12234742322758417]
本稿では,マルチエージェント強化学習(MARL)の新たなベンチマークとして,戦略ゲームSo Long Sucker(SLS)について検討する。
グラフィカルなユーザインタフェースと強化学習アルゴリズムのベンチマークサポートを備えた,SLS用の初の公開計算フレームワークを紹介した。
論文 参考訳(メタデータ) (2024-11-17T12:38:13Z) - A Benchmark Environment for Offline Reinforcement Learning in Racing Games [54.83171948184851]
オフライン強化学習(英語: Offline Reinforcement Learning、ORL)は、従来の強化学習(RL)の高サンプリング複雑さを減らすための有望なアプローチである。
本稿では,ORL研究のための新しい環境であるOfflineManiaを紹介する。
TrackManiaシリーズにインスパイアされ、Unity 3Dゲームエンジンで開発された。
論文 参考訳(メタデータ) (2024-07-12T16:44:03Z) - Dialogue Shaping: Empowering Agents through NPC Interaction [11.847150109599982]
非プレイヤーキャラクタ(NPC)はゲームに関するいくつかの重要な情報を保持しており、RLエージェントのトレーニングを高速化するのに役立つ可能性がある。
本稿では,大規模言語モデル(LLM)を用いてNPCエージェントと対話し,キー情報を取得する方法について検討する。
論文 参考訳(メタデータ) (2023-07-28T22:44:54Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z) - The NetHack Learning Environment [79.06395964379107]
本稿では、強化学習研究のための手続き的に生成されたローグのような環境であるNetHack Learning Environment(NLE)を紹介する。
我々は,NetHackが,探索,計画,技術習得,言語条件付きRLといった問題に対する長期的な研究を促進するのに十分複雑であると主張している。
我々は,分散されたDeep RLベースラインとランダムネットワーク蒸留探索を用いて,ゲームの初期段階における実験的な成功を示す。
論文 参考訳(メタデータ) (2020-06-24T14:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。