論文の概要: Large Language Models as Pokémon Battle Agents: Strategic Play and Content Generation
- arxiv url: http://arxiv.org/abs/2512.17308v1
- Date: Fri, 19 Dec 2025 07:46:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.290121
- Title: Large Language Models as Pokémon Battle Agents: Strategic Play and Content Generation
- Title(参考訳): ポケモンバトルエージェントとしての大規模言語モデル:戦略プレイとコンテンツ生成
- Authors: Daksh Jain, Aarya Jain, Ashutosh Desai, Avyakt Verma, Ishan Bhanuka, Pratik Narang, Dhruv Kumar,
- Abstract要約: ポケモンの戦いは、タイプマッチ、統計的なトレードオフ、リスクアセスメントに関する推論を要求する。
本研究は,Large Language Models (LLM) が有能な戦闘エージェントとして機能するかどうかを検討する。
我々は,LLMが事前にプログラムされた論理ではなく,戦闘状態に基づいて行動を選択するターンベースのポケモンバトルシステムを開発した。
- 参考スコア(独自算出の注目度): 4.782714372521615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Strategic decision-making in Pokémon battles presents a unique testbed for evaluating large language models. Pokémon battles demand reasoning about type matchups, statistical trade-offs, and risk assessment, skills that mirror human strategic thinking. This work examines whether Large Language Models (LLMs) can serve as competent battle agents, capable of both making tactically sound decisions and generating novel, balanced game content. We developed a turn-based Pokémon battle system where LLMs select moves based on battle state rather than pre-programmed logic. The framework captures essential Pokémon mechanics: type effectiveness multipliers, stat-based damage calculations, and multi-Pokémon team management. Through systematic evaluation across multiple model architectures we measured win rates, decision latency, type-alignment accuracy, and token efficiency. These results suggest LLMs can function as dynamic game opponents without domain-specific training, offering a practical alternative to reinforcement learning for turn-based strategic games. The dual capability of tactical reasoning and content creation, positions LLMs as both players and designers, with implications for procedural generation and adaptive difficulty systems in interactive entertainment.
- Abstract(参考訳): ポケモンの戦いにおける戦略的意思決定は、大きな言語モデルを評価するための独特なテストベッドを提示している。
ポケモンの戦いは、タイプマッチ、統計的トレードオフ、リスク評価、人間の戦略的思考を反映するスキルに関する推論を要求する。
本研究は,Large Language Models (LLMs) が戦術的に健全な判断と,新しいバランスの取れたゲームコンテンツを生成する能力を持つ,有能な戦闘エージェントとして機能するかどうかを検討する。
我々は,LLMが事前にプログラムされた論理ではなく,戦闘状態に基づいて行動を選択するターンベースのポケモンバトルシステムを開発した。
このフレームワークは、型の有効性乗算器、統計ベースのダメージ計算、およびマルチポケモンチーム管理といった、ポケモンの不可欠なメカニクスを捉えている。
複数のモデルアーキテクチャの体系的な評価を通じて、勝利率、決定遅延、型調整精度、トークン効率を測定した。
これらの結果から,LLMはドメイン固有のトレーニングを使わずに動的ゲーム相手として機能し,ターンベースの戦略ゲームのための強化学習の実践的な代替手段となることが示唆された。
戦術的推論とコンテンツ生成の二重能力は、対話的エンターテイメントにおける手続き生成と適応的難易度システムに意味を持ち、LSMをプレイヤーとデザイナの両方に位置づける。
関連論文リスト
- Game-TARS: Pretrained Foundation Models for Scalable Generalist Multimodal Game Agents [56.25101378553328]
本稿では,汎用ゲームエージェントであるGame-TARSについて紹介する。
Game-TARSは500B以上のトークンで事前トレーニングされており、様々な軌跡とマルチモーダルデータがある。
実験により、Game-TARSは、オープンワールドMinecraftタスクにおける以前のソータモデルの約2倍の成功率を達成することが示された。
論文 参考訳(メタデータ) (2025-10-27T17:43:51Z) - Beyond Survival: Evaluating LLMs in Social Deduction Games with Human-Aligned Strategies [54.08697738311866]
Werewolfのようなソーシャル推論ゲームは、言語、推論、戦略を組み合わせている。
我々は,100時間以上のビデオ,32.4M発声トークン,15の規則変種を含む高品質で人間認証されたWerewolfデータセットをキュレートした。
本稿では,勝利派戦略を2段階の真理として活用する新たな戦略調整評価法を提案する。
論文 参考訳(メタデータ) (2025-10-13T13:33:30Z) - LM Fight Arena: Benchmarking Large Multimodal Models via Game Competition [104.81487689011341]
本稿では,Mortal Kombat IIにおける大規模マルチモーダルモデルを評価する新しいフレームワークであるLM Fight Arenaを紹介する。
静的評価とは異なり、LM Fight Arenaは完全に自動化され、再現可能で、LMMの戦略的推論能力の客観的評価を提供する。
論文 参考訳(メタデータ) (2025-10-10T02:19:21Z) - Who is a Better Player: LLM against LLM [53.46608216197315]
本稿では,大規模言語モデル (LLM) の総合的な性能を評価するための対戦型ベンチマークフレームワークを提案する。
広範にプレイされている5つのゲームをサポートし,20のLDMを駆使したプレーヤーを対象とする,特別な評価プラットフォームであるQi Townを紹介した。
論文 参考訳(メタデータ) (2025-08-05T06:41:47Z) - A Multi-Agent Pokemon Tournament for Evaluating Strategic Reasoning of Large Language Models [0.0]
本研究は,大言語モデル(LLM)を知的エージェントとして活用し,ポケモン戦における戦略的意思決定をシミュレートする競技トーナメントシステム LLM Pokemon League を提案する。
このプラットフォームは、型ベースのターンベースの戦闘環境において、異なるLLMが示す推論、適応性、戦術的な深さを分析し、比較するように設計されている。
このプロジェクトは、制約のあるルールベースのゲーム環境において、比較AIの振る舞い、戦闘心理学、メタストラテジー開発に関する豊富な調査を可能にする。
論文 参考訳(メタデータ) (2025-08-03T07:27:36Z) - PokéAI: A Goal-Generating, Battle-Optimizing Multi-agent System for Pokemon Red [4.558478169296784]
Pok'eAIは,Pok'emon Redを通じて自律的に再生・進行するように設計された,テキストベースでマルチエージェントな大規模言語モデル(LLM)フレームワークである。
本システムでは,3つの専門エージェント(Planning, Execution, Critique-each)と,独自のメモリバンク,役割,スキルセットで構成されている。
論文 参考訳(メタデータ) (2025-06-30T10:09:13Z) - PokeLLMon: A Human-Parity Agent for Pokemon Battles with Large Language Models [7.653580388741887]
戦術格闘ゲームにおいて,人間の対人性能を実現する最初のLDM型エージェントであるPokeLLMonを紹介する。
オンライン対人戦は、PokeLLMonの人間的な戦闘戦略とジャスト・イン・タイムの意思決定を実証している。
論文 参考訳(メタデータ) (2024-02-02T03:22:12Z) - All by Myself: Learning Individualized Competitive Behaviour with a
Contrastive Reinforcement Learning optimization [57.615269148301515]
競争ゲームのシナリオでは、エージェントのセットは、彼らの目標を最大化し、敵の目標を同時に最小化する決定を学習する必要があります。
本稿では,競争ゲームの表現を学習し,特定の相手の戦略をどうマップするか,それらを破壊するかを学習する3つのニューラルネットワーク層からなる新しいモデルを提案する。
我々の実験は、オフライン、オンライン、競争特化モデル、特に同じ対戦相手と複数回対戦した場合に、我々のモデルがより良いパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2023-10-02T08:11:07Z) - L2E: Learning to Exploit Your Opponent [66.66334543946672]
本稿では,暗黙的対向モデリングのための新しい学習フレームワークを提案する。
L2Eは、トレーニング中に異なる相手との対話によって、相手を悪用する能力を取得する。
本稿では, 対戦相手を自動的に生成する新しい対戦相手戦略生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-18T14:27:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。