論文の概要: PokéAI: A Goal-Generating, Battle-Optimizing Multi-agent System for Pokemon Red
- arxiv url: http://arxiv.org/abs/2506.23689v1
- Date: Mon, 30 Jun 2025 10:09:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.011056
- Title: PokéAI: A Goal-Generating, Battle-Optimizing Multi-agent System for Pokemon Red
- Title(参考訳): PokéAI: ポケモンレッドのためのゴール生成、バトル最適化マルチエージェントシステム
- Authors: Zihao Liu, Xinhang Sui, Yueran Song, Siwen Wang,
- Abstract要約: Pok'eAIは,Pok'emon Redを通じて自律的に再生・進行するように設計された,テキストベースでマルチエージェントな大規模言語モデル(LLM)フレームワークである。
本システムでは,3つの専門エージェント(Planning, Execution, Critique-each)と,独自のメモリバンク,役割,スキルセットで構成されている。
- 参考スコア(独自算出の注目度): 4.558478169296784
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Pok\'eAI, the first text-based, multi-agent large language model (LLM) framework designed to autonomously play and progress through Pok\'emon Red. Our system consists of three specialized agents-Planning, Execution, and Critique-each with its own memory bank, role, and skill set. The Planning Agent functions as the central brain, generating tasks to progress through the game. These tasks are then delegated to the Execution Agent, which carries them out within the game environment. Upon task completion, the Critique Agent evaluates the outcome to determine whether the objective was successfully achieved. Once verification is complete, control returns to the Planning Agent, forming a closed-loop decision-making system. As a preliminary step, we developed a battle module within the Execution Agent. Our results show that the battle AI achieves an average win rate of 80.8% across 50 wild encounters, only 6% lower than the performance of an experienced human player. Furthermore, we find that a model's battle performance correlates strongly with its LLM Arena score on language-related tasks, indicating a meaningful link between linguistic ability and strategic reasoning. Finally, our analysis of gameplay logs reveals that each LLM exhibits a unique playstyle, suggesting that individual models develop distinct strategic behaviors.
- Abstract(参考訳): 我々はPok\'eAIを紹介した。これはPok\'emon Redを通じて自律的に再生・進行するように設計された、テキストベースでマルチエージェントな大規模言語モデル(LLM)フレームワークである。
本システムでは,3つの専門エージェント(Planning, Execution, Critique-each)と,独自のメモリバンク,役割,スキルセットで構成されている。
計画エージェントは中央脳として機能し、ゲームを通して進行するタスクを生成する。
これらのタスクは実行エージェントに委譲され、ゲーム環境内で実行される。
タスクが完了すると、批評家エージェントは結果を評価し、目的が達成されたかどうかを判断する。
検証が完了すると、コントロールはプランニングエージェントに戻り、クローズドループ決定システムを形成する。
予備的なステップとして,実行エージェント内に戦闘モジュールを開発した。
以上の結果から,戦闘AIは50回の野戦で平均80.8%の勝利率を達成し,経験豊富な人間選手よりも6%低い結果となった。
さらに,モデルの戦闘性能は言語関連タスクにおけるLLMアリーナスコアと強く相関し,言語能力と戦略的推論との有意義な関連性を示す。
最後に,ゲームプレイログの分析結果から,各LLMは独自のプレイスタイルを示し,個々のモデルが異なる戦略行動を生成することが示唆された。
関連論文リスト
- Cultivating Game Sense for Yourself: Making VLMs Gaming Experts [23.370716496046217]
ゲームプレイエージェント設計におけるパラダイムシフトを提案する。
ゲームプレイを直接制御する代わりに、VLMは射撃や戦闘などのタスクに適した特殊な実行モジュールを開発する。
これらのモジュールはリアルタイムゲームインタラクションを処理し、VLMをハイレベルな開発者に高める。
論文 参考訳(メタデータ) (2025-03-27T08:40:47Z) - AVA: Attentive VLM Agent for Mastering StarCraft II [56.07921367623274]
Intentive VLM Agent (AVA) は、人工エージェントの認識と人間のゲームプレイ体験を一致させるマルチモーダルのStarCraft IIエージェントである。
我々のエージェントは、ゲームプレイ中に人間の認知過程をより密にシミュレートするRGB視覚入力と自然言語観察を組み込むことにより、この制限に対処する。
論文 参考訳(メタデータ) (2025-03-07T12:54:25Z) - Hybrid Voting-Based Task Assignment in Role-Playing Games [0.0]
投票ベースのタスク割り当て(VBTA)は、タスク割り当てと完了における人間の推論にインスパイアされたフレームワークである。
VBTAは、各タスクに最も適したエージェントを効率よく識別し割り当てる。
我々の手法は、独自の戦闘遭遇と物語を創出する際の約束を示す。
論文 参考訳(メタデータ) (2025-02-25T22:58:21Z) - PLAYER*: Enhancing LLM-based Multi-Agent Communication and Interaction in Murder Mystery Games [21.639516389561837]
我々はMurder Mystery Games(MMG)におけるマルチエージェント会話推論のための推論データセットWellPlayを紹介する。
WellPlayは12のゲームにまたがる1,482の推論質問で構成されている。
MMGにおけるLarge Language Model(LLM)ベースのエージェントのための新しいフレームワークPLAYER*を提案する。
論文 参考訳(メタデータ) (2024-04-26T19:07:30Z) - Deciphering Digital Detectives: Understanding LLM Behaviors and
Capabilities in Multi-Agent Mystery Games [26.07074182316433]
本稿では,Jubenshaに特化している最初のデータセットについて紹介する。
我々の研究は、LSMを使ったユニークなマルチエージェントインタラクションフレームワークも提供し、AIエージェントがこのゲームに自律的に関与できるようにする。
これらのAIエージェントのゲーム性能を評価するために,ケース情報と推論スキルの熟達度を測定する新しい手法を開発した。
論文 参考訳(メタデータ) (2023-12-01T17:33:57Z) - LLM-Based Agent Society Investigation: Collaboration and Confrontation in Avalon Gameplay [55.12945794835791]
Avalon をテストベッドとして使用し,システムプロンプトを用いてゲームプレイにおける LLM エージェントの誘導を行う。
本稿では,Avalonに適した新しいフレームワークを提案し,効率的なコミュニケーションと対話を容易にするマルチエージェントシステムを提案する。
その結果、適応エージェントの作成におけるフレームワークの有効性を確認し、動的社会的相互作用をナビゲートするLLMベースのエージェントの可能性を提案する。
論文 参考訳(メタデータ) (2023-10-23T14:35:26Z) - SmartPlay: A Benchmark for LLMs as Intelligent Agents [45.76707302899935]
SmartPlayはRock-Paper-Scissors, Tower of Hanoi, Minecraftなど,6つの異なるゲームで構成されている。
各ゲームは知的LLMエージェントの9つの重要な能力のサブセットに挑戦する。
テストには、オブジェクト依存による推論、事前計画、空間的推論、履歴からの学習、ランダムさの理解が含まれる。
論文 参考訳(メタデータ) (2023-10-02T18:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。