論文の概要: What-If Analysis of Large Language Models: Explore the Game World Using Proactive Thinking
- arxiv url: http://arxiv.org/abs/2509.04791v1
- Date: Fri, 05 Sep 2025 04:05:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.472495
- Title: What-If Analysis of Large Language Models: Explore the Game World Using Proactive Thinking
- Title(参考訳): 大規模言語モデルのどのような場合の分析:プロアクティブ思考を用いたゲーム世界を探索する
- Authors: Yuan Sui, Yanming Zhang, Yi Liao, Yu Gu, Guohua Tang, Zhongqian Sun, Wei Yang, Bryan Hooi,
- Abstract要約: 大規模言語モデル(LLM)は情報処理をリアクティブに行う能力に優れるが、仮説的未来を体系的に探索する能力に欠ける。
提案するWiA-LLMは,LLMにプロアクティブな思考能力を持たせる新しいパラダイムである。
複雑なマルチプレイヤーゲーム環境であるHonor of KingsにおけるWiA-LLMを検証する。
- 参考スコア(独自算出の注目度): 50.72154186522052
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) excel at processing information reactively but lack the ability to systemically explore hypothetical futures. They cannot ask, "what if we take this action? how will it affect the final outcome" and forecast its potential consequences before acting. This critical gap limits their utility in dynamic, high-stakes scenarios like strategic planning, risk assessment, and real-time decision making. To bridge this gap, we propose WiA-LLM, a new paradigm that equips LLMs with proactive thinking capabilities. Our approach integrates What-If Analysis (WIA), a systematic approach for evaluating hypothetical scenarios by changing input variables. By leveraging environmental feedback via reinforcement learning, WiA-LLM moves beyond reactive thinking. It dynamically simulates the outcomes of each potential action, enabling the model to anticipate future states rather than merely react to the present conditions. We validate WiA-LLM in Honor of Kings (HoK), a complex multiplayer game environment characterized by rapid state changes and intricate interactions. The game's real-time state changes require precise multi-step consequence prediction, making it an ideal testbed for our approach. Experimental results demonstrate WiA-LLM achieves a remarkable 74.2% accuracy in forecasting game-state changes (up to two times gain over baselines). The model shows particularly significant gains in high-difficulty scenarios where accurate foresight is critical. To our knowledge, this is the first work to formally explore and integrate what-if analysis capabilities within LLMs. WiA-LLM represents a fundamental advance toward proactive reasoning in LLMs, providing a scalable framework for robust decision-making in dynamic environments with broad implications for strategic applications.
- Abstract(参考訳): 大規模言語モデル(LLM)は情報処理をリアクティブに行う能力に優れるが、仮説的未来を体系的に探索する能力に欠ける。
彼らは「この行動を採ったらどうするか?最終結果にどう影響するのか?」と問うことができず、行動する前にその潜在的な結果を予測する。
この重要なギャップは、戦略的計画やリスクアセスメント、リアルタイム意思決定といった、ダイナミックで高リスクなシナリオにおける実用性を制限します。
このギャップを埋めるために,我々は,LLMに積極的な思考能力を持たせる新しいパラダイムであるWiA-LLMを提案する。
提案手法は,入力変数の変更による仮説的シナリオ評価のための体系的アプローチであるWhat-If Analysis(WIA)を統合する。
環境フィードバックを強化学習を通じて活用することにより、WiA-LLMはリアクティブ思考を超えて進む。
各潜在的な行動の結果を動的にシミュレートし、モデルが現在の状態に単に反応するのではなく、将来の状態を予測できるようにする。
高速な状態変化と複雑な相互作用を特徴とする複雑なマルチプレイヤーゲーム環境であるHonor of Kings (HoK)におけるWiA-LLMを検証する。
ゲームのリアルタイム状態の変化は、正確なマルチステップ結果予測を必要とするため、我々のアプローチにとって理想的なテストベッドとなる。
実験の結果、WiA-LLMはゲーム状態の変化を予測する際の74.2%の精度(ベースラインよりも最大2倍の精度)を達成した。
このモデルでは、正確な視線が重要となる高拡散性シナリオにおいて、特に顕著な利得を示す。
私たちの知る限りでは、LLM内でWhat-if分析機能を公式に探求し、統合する最初の試みである。
WiA-LLMはLLMにおける積極的な推論に向けた根本的な進歩であり、戦略的アプリケーションに幅広い意味を持つ動的環境における堅牢な意思決定のためのスケーラブルなフレームワークを提供する。
関連論文リスト
- Where to show Demos in Your Prompt: A Positional Bias of In-Context Learning [19.313795358097483]
In-context Learning (ICL)は、大規模言語モデル(LLM)の重要な新興能力である。
本稿では,ICLの新たな位置バイアスを初めて明らかにした。
我々は,デモの位置,システムプロンプト,ユーザメッセージが変化すると,予測と精度が劇的に低下するのを観察する。
論文 参考訳(メタデータ) (2025-07-30T17:59:46Z) - Integrating Counterfactual Simulations with Language Models for Explaining Multi-Agent Behaviour [26.04296415316974]
AXIS(Interrogative Simulation)を用いたエージェントeXplanationを提案する。
AXISは、事前訓練されたマルチエージェントポリシーに対して、理解不能な因果説明を生成する。
5LLMの10シナリオにわたる自律走行におけるAXISの評価を行った。
論文 参考訳(メタデータ) (2025-05-23T12:19:18Z) - APEX: Empowering LLMs with Physics-Based Task Planning for Real-time Insight [3.5385022178794805]
APEX(Anticipatory Physics-Enhanced Execution)は、大規模言語モデルに物理駆動型フォレストを組み、リアルタイムタスク計画のためのフレームワークである。
APEX は標準の LLM や VLM ベースのモデルを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-20T04:34:58Z) - Belief Revision: The Adaptability of Large Language Models Reasoning [63.0281286287648]
本稿では,LMの信念修正能力をテストするための新しいデータセットであるBelief-Rを紹介する。
このタスクは、人間が事前の推論を抑える方法にインスパイアされ、新しく提案されたデルタ推論フレームワーク内のLMを評価する。
様々なプロンプト戦略にまたがる$sim$30 LMを評価した結果,LMは一般的に,新たな情報に反応して信念を適切に修正するのに苦慮していることがわかった。
論文 参考訳(メタデータ) (2024-06-28T09:09:36Z) - HAZARD Challenge: Embodied Decision Making in Dynamically Changing
Environments [93.94020724735199]
HAZARDは、火災、洪水、風などの3つの予期せぬ災害シナリオで構成されている。
このベンチマークにより、さまざまなパイプラインで自律エージェントの意思決定能力を評価することができる。
論文 参考訳(メタデータ) (2024-01-23T18:59:43Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z) - Learning the Effects of Physical Actions in a Multi-modal Environment [17.757831697284498]
大規模言語モデル(LLM)は、物理的コモンセンス情報を不十分に扱う。
本稿では,現実的な感覚入力のみから行動の結果を予測するマルチモーダルタスクを提案する。
マルチモーダルモデルでは、視覚情報で拡張した場合に、物理的なコモンセンスをキャプチャできることを示す。
論文 参考訳(メタデータ) (2023-01-27T16:49:52Z) - Instance-Aware Predictive Navigation in Multi-Agent Environments [93.15055834395304]
エージェント間の相互作用と将来のシーン構造を予測するIPC(Instance-Aware Predictive Control)アプローチを提案する。
我々は,ego中心の視点でエージェント間のインタラクションを推定するために,新しいマルチインスタンスイベント予測モジュールを採用する。
シーンレベルとインスタンスレベルの両方の予測状態をより有効活用するために、一連のアクションサンプリング戦略を設計します。
論文 参考訳(メタデータ) (2021-01-14T22:21:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。