論文の概要: LLMs as Strategic Agents: Beliefs, Best Response Behavior, and Emergent Heuristics
- arxiv url: http://arxiv.org/abs/2510.10813v1
- Date: Sun, 12 Oct 2025 21:40:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 20:23:38.946766
- Title: LLMs as Strategic Agents: Beliefs, Best Response Behavior, and Emergent Heuristics
- Title(参考訳): 戦略エージェントとしてのLCM--信念、ベスト反応行動、創発的ヒューリスティックス
- Authors: Enric Junque de Fortuny, Veronica Roberta Cappelli,
- Abstract要約: 大規模言語モデル(LLM)は、他のエージェントの振る舞いを推論する必要のあるドメインにますます適用されています。
現状のフロンティアモデルでは, 目的的推論記憶における信念コヒーレントなベストレスポンス行動を示す。
複雑さが増大する中で、明示的な再帰は、安定した、モデル固有の、既知の人間のバイアスとは異なる選択規則を内部的に生成する手段を与える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) are increasingly applied to domains that require reasoning about other agents' behavior, such as negotiation, policy design, and market simulation, yet existing research has mostly evaluated their adherence to equilibrium play or their exhibited depth of reasoning. Whether they display genuine strategic thinking, understood as the coherent formation of beliefs about other agents, evaluation of possible actions, and choice based on those beliefs, remains unexplored. We develop a framework to identify this ability by disentangling beliefs, evaluation, and choice in static, complete-information games, and apply it across a series of non-cooperative environments. By jointly analyzing models' revealed choices and reasoning traces, and introducing a new context-free game to rule out imitation from memorization, we show that current frontier models exhibit belief-coherent best-response behavior at targeted reasoning depths. When unconstrained, they self-limit their depth of reasoning and form differentiated conjectures about human and synthetic opponents, revealing an emergent form of meta-reasoning. Under increasing complexity, explicit recursion gives way to internally generated heuristic rules of choice that are stable, model-specific, and distinct from known human biases. These findings indicate that belief coherence, meta-reasoning, and novel heuristic formation can emerge jointly from language modeling objectives, providing a structured basis for the study of strategic cognition in artificial agents.
- Abstract(参考訳): 大規模言語モデル (LLM) は、交渉、政策設計、市場シミュレーションといった他のエージェントの行動の推論を必要とする領域にますます適用されてきているが、既存の研究はほとんどが均衡プレイやその説明された推論の深さに順応していることを評価してきた。
それらが真の戦略的思考を示すか、他のエージェントに対する信念の一貫性の形成、可能な行動の評価、そしてそれらの信念に基づく選択は未解明のままである。
我々は,静的かつ完全な情報ゲームにおいて,信念,評価,選択を両立させることにより,この能力を識別する枠組みを開発し,協調的でない環境に適用する。
モデルが明らかにした選択と推論の痕跡を共同で分析し、記憶から模倣を除外する新しい文脈自由ゲームを導入することにより、現在のフロンティアモデルでは、目的とする推論深度において、信念コヒーレントなベストレスポンス動作を示すことを示す。
制約のない場合、彼らは推論の深みを自認し、人間と合成する相手についての予測を区別し、メタ推論の創発的な形態を明らかにする。
複雑さが増大する中で、明示的な再帰は、安定した、モデル固有の、既知の人間のバイアスとは異なる選択のヒューリスティックな規則を内部的に生成する手段を与える。
これらの結果から, 信念の一貫性, メタ推論, 新たなヒューリスティックな形成は, 言語モデリングの目的から共生しうることが示唆された。
関連論文リスト
- Reimagining Agent-based Modeling with Large Language Model Agents via Shachi [16.625794969005966]
大規模言語モデル(LLM)によるマルチエージェントシステムにおける創発的行動の研究は重要な研究課題である。
エージェントのポリシーをコア認知コンポーネントに分解する形式的方法論とモジュラーフレームワークであるShachiを紹介する。
提案手法を総合的な10タスクベンチマークで検証し,新しい科学的探究を通じてその能力を実証する。
論文 参考訳(メタデータ) (2025-09-26T04:38:59Z) - Hypergames: Modeling Misaligned Perceptions and Nested Beliefs for Multi-agent Systems [3.5083201638203154]
本稿では,ハイパーゲーム理論のエージェント互換応用を体系的に検討する。
サイバーセキュリティ、ロボティクス、社会シミュレーション、コミュニケーション、一般ゲーム理論モデリングから選ばれた44の研究を分析した。
本分析では, 階層型モデルやグラフベースのモデルが, 知覚的推論において有意な傾向を示す。
論文 参考訳(メタデータ) (2025-07-25T18:06:41Z) - LLM-Stackelberg Games: Conjectural Reasoning Equilibria and Their Applications to Spearphishing [15.764094200832071]
本稿では,大規模言語モデル(LLM)を戦略的相互作用に統合する逐次意思決定モデルの枠組みを紹介する。
LLM-Stackelbergゲームは,サイバーセキュリティや誤情報,レコメンデーションシステムといった領域において,意思決定をモデル化するための強力なパラダイムを提供する。
論文 参考訳(メタデータ) (2025-07-12T21:42:27Z) - Position: Simulating Society Requires Simulating Thought [9.879510182473487]
大規模言語モデル(LLM)で社会をシミュレートするには、構造化され、修正可能で、追跡可能な認知的根拠を持つ推論が必要である。
本稿では,ジェネレーティブ・マインド(GenMinds,ジェネレーティブ・マインド)の概念的モデリングパラダイムを提案する。
これらの貢献は、社会シミュレーションのための思考(言語だけでなく)をシミュレートする表面レベルの模倣から生成エージェントへの、より広範なシフトを推進している。
論文 参考訳(メタデータ) (2025-06-08T00:59:02Z) - Perception, Reason, Think, and Plan: A Survey on Large Multimodal Reasoning Models [79.52467430114805]
推論は知性の中心にあり、決定し、結論を導き、ドメインをまたいで一般化する能力を形成する。
人工知能において、システムがオープンで不確実でマルチモーダルな環境でますます機能するにつれて、推論は堅牢で適応的な行動を可能にするために不可欠となる。
大規模マルチモーダル推論モデル(LMRM)は、テキスト、画像、オーディオ、ビデオなどのモダリティを統合し、複雑な推論機能をサポートする、有望なパラダイムとして登場した。
論文 参考訳(メタデータ) (2025-05-08T03:35:23Z) - PolicyEvol-Agent: Evolving Policy via Environment Perception and Self-Awareness with Theory of Mind [9.587070290189507]
PolicyEvol-Agentは、他者の意図を体系的に獲得するのが特徴の包括的なフレームワークである。
PolicyEvol-Agentは、さまざまな認知操作を、内的および外的視点とともに、心の理論と統合する。
論文 参考訳(メタデータ) (2025-04-20T06:43:23Z) - LogiDynamics: Unraveling the Dynamics of Inductive, Abductive and Deductive Logical Inferences in LLM Reasoning [74.0242521818214]
本稿では,大言語モデル(LLM)におけるインダクティブ(システム1)と帰納的/帰納的(システム2)の推論の比較力学を体系的に検討する。
我々は、制御されたアナログ推論環境、多様度(テキスト、視覚、記号)、難易度、タスク形式(MCQ/フリーテキスト)を利用する。
我々の分析によると、System 2のパイプラインは一般的に、特に視覚的/象徴的なモダリティや難しいタスクにおいて優れており、System 1はテキストやより簡単な問題に対して競争力がある。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - K-Level Reasoning: Establishing Higher Order Beliefs in Large Language Models for Strategic Reasoning [76.3114831562989]
マルチエージェント環境で戦略を動的に適応させるためには、LLM(Large Language Model)エージェントが必要である。
我々は,「K-Level Reasoning with Large Language Models (K-R)」という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:07:05Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。