論文の概要: Memory-Augmented State Machine Prompting: A Novel LLM Agent Framework for Real-Time Strategy Games
- arxiv url: http://arxiv.org/abs/2510.18395v1
- Date: Tue, 21 Oct 2025 08:15:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.147581
- Title: Memory-Augmented State Machine Prompting: A Novel LLM Agent Framework for Real-Time Strategy Games
- Title(参考訳): メモリ拡張ステートマシンプロンプト:リアルタイム戦略ゲームのための新しいLLMエージェントフレームワーク
- Authors: Runnan Qi, Yanan Ni, Lumin Jiang, Zongyuan Li, Kuihua Huang, Xian Guo,
- Abstract要約: Memory-Augmented State Machine Prompting (MASMP)は、リアルタイム戦略ゲームにおけるLLMエージェントのための新しいフレームワークである。
MASMPは、状態マシンプロンプトとメモリ機構を統合し、長期的戦術的コヒーレンスで構造化されたアクションを統一する。
- 参考スコア(独自算出の注目度): 4.203733214192822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes Memory-Augmented State Machine Prompting (MASMP), a novel framework for LLM agents in real-time strategy games. Addressing key challenges like hallucinations and fragmented decision-making in existing approaches, MASMP integrates state machine prompting with memory mechanisms to unify structured actions with long-term tactical coherence. The framework features: (1) a natural language-driven state machine architecture that guides LLMs to emulate finite state machines and behavior trees through prompts, and (2) a lightweight memory module preserving strategic variables (e.g., tactics, priority units) across decision cycles. Experiments in StarCraft II demonstrate MASMP's 60% win rate against the hardest built-in AI (Lv7), vastly outperforming baselines (0%). Case studies reveal the method retains LLMs' semantic comprehension while resolving the "Knowing-Doing Gap" through strict state-action mapping, achieving both interpretability and FSM-like reliability. This work establishes a new paradigm for combining neural and symbolic AI in complex decision-making.
- Abstract(参考訳): 本稿では,リアルタイム戦略ゲームにおける LLM エージェントのための新しいフレームワークである Memory-Augmented State Machine Prompting (MASMP) を提案する。
既存のアプローチにおける幻覚や断片的な意思決定といった重要な課題に対処するため、MASMPは、長期的戦術的コヒーレンスで構造化されたアクションを統一するためのメモリ機構を、ステートマシンと統合する。
1) LLMを誘導してプロンプトを通じて有限状態マシンや行動ツリーをエミュレートする自然言語駆動型ステートマシンアーキテクチャ、(2)戦略変数(例えば、戦術、優先度単位)を決定サイクルで保存する軽量メモリモジュール。
StarCraft IIの実験では、最も難しい組込みAI(Lv7)に対するMASMPの60%の勝利率を示し、ベースライン(0%)を大きく上回っている。
ケーススタディでは、厳密な状態対応マッピングを通じて「知識処理ギャップ」を解き、解釈可能性とFSMのような信頼性を両立させながら、LLMの意味的理解を維持している。
この研究は、複雑な意思決定においてニューラルネットワークとシンボリックAIを組み合わせるための新しいパラダイムを確立する。
関連論文リスト
- CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - Rethinking Reasoning in LLMs: Neuro-Symbolic Local RetoMaton Beyond ICL and CoT [8.06437018518246]
グローバルなデータストアをローカルなタスク適応重み付き有限オートマトンに置き換えることで、RetoMatonを拡張します。
この局所オートマトン構造は、シンボルトレーサビリティと低推論オーバーヘッドを維持しながら、堅牢でコンテキスト対応の検索を促進する。
我々の結果は、現代言語モデルにおける信頼できる象徴的な推論への有望なシフトを浮き彫りにしている。
論文 参考訳(メタデータ) (2025-08-22T16:51:06Z) - CHBench: A Cognitive Hierarchy Benchmark for Evaluating Strategic Reasoning Capability of LLMs [10.29314561183905]
ゲームプレイ能力は、大規模言語モデルの戦略的推論能力を評価する指標となる。
行動経済学の認知階層モデルに着想を得た新しい評価フレームワークであるCHBenchを提案する。
論文 参考訳(メタデータ) (2025-08-16T07:10:26Z) - Hierarchical Memory for High-Efficiency Long-Term Reasoning in LLM Agents [19.04968632268433]
大規模言語モデルエージェント(LLMエージェント)のための階層型メモリアーキテクチャを提案する。
各メモリベクトルは、次の層のセマンティック関連サブメモリを指し示す位置インデックスが埋め込まれている。
推論フェーズにおいて、インデックスベースのルーティング機構は、網羅的な類似性計算を行うことなく、効率的な層間検索を可能にする。
論文 参考訳(メタデータ) (2025-07-23T12:45:44Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - MemOS: An Operating System for Memory-Augmented Generation (MAG) in Large Language Models [31.944531660401722]
我々は,大規模言語モデル(LLM)用に設計されたメモリオペレーティングシステムであるMemOSを紹介する。
コアとなるMemCubeは、異種メモリの追跡、融合、マイグレーションを可能にする標準化されたメモリ抽象化である。
MemOSは、強力な制御性、適応性、進化性を備えたメモリ中心の実行フレームワークを確立する。
論文 参考訳(メタデータ) (2025-05-28T08:27:12Z) - L2MAC: Large Language Model Automatic Computer for Extensive Code Generation [52.81694565226513]
トランスフォーマーベースの大規模言語モデル(LLM)は、基盤となるトランスフォーマーアーキテクチャの固定コンテキストウィンドウによって制約される。
本稿では,L2MACを提案する。L2MACは,LLMをベースとした汎用型自動計算機(von Neumann Architecture)フレームワークで,長期的かつ一貫した出力生成を実現する。
論文 参考訳(メタデータ) (2023-10-02T16:55:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。