論文の概要: Vox Deorum: A Hybrid LLM Architecture for 4X / Grand Strategy Game AI -- Lessons from Civilization V
- arxiv url: http://arxiv.org/abs/2512.18564v2
- Date: Thu, 25 Dec 2025 18:41:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-29 13:23:29.787926
- Title: Vox Deorum: A Hybrid LLM Architecture for 4X / Grand Strategy Game AI -- Lessons from Civilization V
- Title(参考訳): Vox Deorum: 4X / Grand Strategy Game AIのためのハイブリッドLLMアーキテクチャ - 文明Vからの教訓
- Authors: John Chen, Sihan Cheng, Can Gurkan, Ryan Lay, Moez Salahuddin,
- Abstract要約: 大きな言語モデルが自然言語で推論できる能力は、4Xとグランドストラテジーゲームに一意に期待できる。
本稿では,マクロストラテジック推論を処理し,戦術的実行をサブシステムに委譲するハイブリッドLLM+XアーキテクチャであるVox Deorumを紹介する。
我々は,Vox Populiの強化AIに対する簡単なプロンプトと2つのオープンソースLLMを比較し,2,327の完全ゲームによるアプローチを検証する。
- 参考スコア(独自算出の注目度): 0.8084807363066502
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Models' capacity to reason in natural language makes them uniquely promising for 4X and grand strategy games, enabling more natural human-AI gameplay interactions such as collaboration and negotiation. However, these games present unique challenges due to their complexity and long-horizon nature, while latency and cost factors may hinder LLMs' real-world deployment. Working on a classic 4X strategy game, Sid Meier's Civilization V with the Vox Populi mod, we introduce Vox Deorum, a hybrid LLM+X architecture. Our layered technical design empowers LLMs to handle macro-strategic reasoning, delegating tactical execution to subsystems (e.g., algorithmic AI or reinforcement learning AI in the future). We validate our approach through 2,327 complete games, comparing two open-source LLMs with a simple prompt against Vox Populi's enhanced AI. Results show that LLMs achieve competitive end-to-end gameplay while exhibiting play styles that diverge substantially from algorithmic AI and from each other. Our work establishes a viable architecture for integrating LLMs in commercial 4X games, opening new opportunities for game design and agentic AI research.
- Abstract(参考訳): 大きな言語モデルが自然言語で推論できる能力は、4Xとグランドストラテジーゲームに一意に期待でき、コラボレーションや交渉のようなより自然な人間とAIのゲームプレイの相互作用を可能にする。
しかし、これらのゲームは複雑さと長い水平特性のために固有の課題を呈し、レイテンシとコスト要因はLLMの実際の展開を妨げる可能性がある。
従来の4X戦略ゲームであるSid Meier's Civilization V with the Vox Populi mod では,ハイブリッド LLM+X アーキテクチャである Vox Deorum を紹介する。
我々の階層化された技術設計は、LLMにマクロストラテジック推論を処理させ、戦術的実行をサブシステム(将来的にはアルゴリズムAIや強化学習AIなど)に委譲する権限を与えています。
我々は,Vox Populiの強化AIに対する簡単なプロンプトと2つのオープンソースLLMを比較し,2,327の完全ゲームによるアプローチを検証する。
その結果,LLMは,アルゴリズム的AIと相互に大きく異なるプレイスタイルを示しながら,競争的なエンド・ツー・エンドのゲームプレイを実現していることがわかった。
我々の研究は、商用4XゲームにLLMを統合するための実行可能なアーキテクチャを確立し、ゲームデザインとエージェントAI研究の新しい機会を開く。
関連論文リスト
- Agents of Change: Self-Evolving LLM Agents for Strategic Planning [28.172006841163938]
HexMachinaは、環境発見と戦略改善を分離する継続的学習マルチエージェントシステムである。
制御されたカタナトロン実験では、HexMachinaはスクラッチから学び、最強の人造ベースラインを上回るプレイヤーを進化させる。
論文 参考訳(メタデータ) (2025-06-05T05:45:24Z) - Large Language Models Playing Mixed Strategy Nash Equilibrium Games [1.060608983034705]
本稿では,混合戦略のナッシュ均衡と純粋戦略のナッシュ均衡が存在しないゲームにおいて,ナッシュ均衡を求めるための大規模言語モデルの能力に焦点を当てる。
この研究は、コード実行の可能性を備えたLLMの性能が大幅に向上していることを明らかにする。
LLMは、よく知られた標準ゲームにおいて顕著な熟練度を示すが、その性能は、同じゲームのわずかな変更に直面した時に低下する。
論文 参考訳(メタデータ) (2024-06-15T09:30:20Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [76.12435556140515]
XAIは大規模言語モデル(LLM)の説明に向けて拡張されている
本稿では、XAIがLLMベースのAIシステムをどのように説明し、改善するかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - GTBench: Uncovering the Strategic Reasoning Limitations of LLMs via Game-Theoretic Evaluations [87.99872683336395]
大規模言語モデル(LLM)は、重要な現実世界のアプリケーションに統合される。
本稿では,LLMの競合環境における推論能力について検討する。
まず,広く認識されている10のタスクを構成する言語駆動型環境であるGTBenchを提案する。
論文 参考訳(メタデータ) (2024-02-19T18:23:36Z) - ALYMPICS: LLM Agents Meet Game Theory -- Exploring Strategic
Decision-Making with AI Agents [77.34720446306419]
Alympicsは、ゲーム理論の研究にLarge Language Model (LLM)エージェントを利用する、体系的なシミュレーションフレームワークである。
Alympicsは、複雑なゲーム理論の問題を研究するための汎用的なプラットフォームを作成する。
論文 参考訳(メタデータ) (2023-11-06T16:03:46Z) - Language Agents with Reinforcement Learning for Strategic Play in the Werewolf Game [37.69298376616128]
我々は、柔軟な言語行動を生成し、強力な意思決定能力を有する戦略的言語エージェントを開発する。
言語行動の本質的バイアスを軽減するため,我々のエージェントはLLMを用いて推論を行い,多様な行動候補を生成する。
実験により,我々のエージェントは本態性バイアスを克服し,Werewolfゲームにおいて既存のLSMベースのエージェントより優れていることが示された。
論文 参考訳(メタデータ) (2023-10-29T09:02:57Z) - SPRING: Studying the Paper and Reasoning to Play Games [102.5587155284795]
我々は,ゲーム本来の学術論文を読み取るための新しいアプローチ,SPRINGを提案し,大言語モデル(LLM)を通してゲームの説明とプレイの知識を利用する。
実験では,クラフトオープンワールド環境の設定下で,異なる形態のプロンプトによって引き起こされる文脈内「推論」の品質について検討した。
我々の実験は、LLMが一貫したチェーン・オブ・シークレットによって誘導されると、洗練された高レベル軌道の完成に大きな可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-05-24T18:14:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。