論文の概要: LLMs as Strategic Actors: Behavioral Alignment, Risk Calibration, and Argumentation Framing in Geopolitical Simulations
- arxiv url: http://arxiv.org/abs/2603.02128v1
- Date: Mon, 02 Mar 2026 17:46:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:57.012595
- Title: LLMs as Strategic Actors: Behavioral Alignment, Risk Calibration, and Argumentation Framing in Geopolitical Simulations
- Title(参考訳): 戦略的アクターとしてのLCM:地政学シミュレーションにおける行動アライメント、リスク校正、議論フレーム
- Authors: Veronika Solopova, Viktoria Skorik, Maksym Tereshchenko, Alina Haidun, Ostap Vykhopen,
- Abstract要約: 大規模言語モデル(LLM)は、戦略的意思決定環境においてエージェントとしてますます提案されている。
我々は,4つの現実的危機シミュレーションシナリオにまたがる人間による結果と合わせて,最先端のLLMを6つ評価した。
我々は、行動アライメントにおけるモデルと、選択された行動の深刻度によるリスクキャリブレーション、国際関係論に基づく議論的フレーミングを比較した。
- 参考スコア(独自算出の注目度): 2.430361444826172
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly proposed as agents in strategic decision environments, yet their behavior in structured geopolitical simulations remains under-researched. We evaluate six popular state-of-the-art LLMs alongside results from human results across four real-world crisis simulation scenarios, requiring models to select predefined actions and justify their decisions across multiple rounds. We compare models to humans in action alignment, risk calibration through chosen actions' severity, and argumentative framing grounded in international relations theory. Results show that models approximate human decision patterns in base simulation rounds but diverge over time, displaying distinct behavioural profiles and strategy updates. LLM explanations for chosen actions across all models exhibit a strong normative-cooperative framing centered on stability, coordination, and risk mitigation, with limited adversarial reasoning.
- Abstract(参考訳): 大規模言語モデル (LLM) は, 戦略的意思決定環境においてエージェントとして提案されることが多いが, 構造的地政学シミュレーションにおけるそれらの振る舞いはいまだ研究されていない。
我々は,4つの現実の危機シミュレーションシナリオにまたがる人間による結果と合わせて,6つの最先端LCMを評価し,事前定義されたアクションを選択し,複数のラウンドで意思決定を正当化するモデルを必要とする。
我々は、行動アライメントにおけるモデルと、選択された行動の深刻度によるリスクキャリブレーション、国際関係論に基づく議論的フレーミングを比較した。
その結果、モデルがベースシミュレーションラウンドで人間の決定パターンを近似するが、時間とともに分散し、異なる行動プロファイルと戦略更新を表示することがわかった。
選択された行動に対するLCMの説明は、安定性、協調性、リスク軽減を中心とした強力な規範的協調的フレーミングを示し、敵対的推論は限定的である。
関連論文リスト
- Strategy Executability in Mathematical Reasoning: Leveraging Human-Model Differences for Effective Guidance [86.46794021499511]
戦略利用と戦略実行可能性の間には、これまで未定のギャップがある。
SSR(Selective Strategy Retrieval)は,実行可能性を明確にモデル化するテストタイムフレームワークである。
SSRは、直接解決、文脈内学習、単一ソースガイダンスよりも信頼性が高く一貫した改善をもたらす。
論文 参考訳(メタデータ) (2026-02-26T03:34:23Z) - Evaluating from Benign to Dynamic Adversarial: A Squid Game for Large Language Models [57.33350664910483]
資源制約と非対称な情報設定を備えた動的・対角的評価環境であるSquid Gameを紹介する。
我々は,Squid Game 上で50以上の LLM を評価し,動的対向シナリオにおける一般 LLM の行動評価研究を最大規模で行った。
論文 参考訳(メタデータ) (2025-11-12T06:06:29Z) - Plan before Solving: Problem-Aware Strategy Routing for Mathematical Reasoning with LLMs [49.995906301946]
既存の手法は通常、数学的推論を行うためにLLM(Large Language Models)をガイドするための固定戦略を利用する。
分析の結果,単一戦略は問題固有の要件に適応できず,有効性と効率性のトレードオフを見落としていることが明らかとなった。
本稿では,PRISM(Planning and Routing through Instance-Specific Modeling)を提案する。
論文 参考訳(メタデータ) (2025-09-29T07:22:41Z) - ToMPO: Training LLM Strategic Decision Making from a Multi-Agent Perspective [16.275962506416064]
大規模言語モデル(LLM)は複雑なシナリオでの意思決定に使われてきた。
本稿では,他の個別戦略の認識とゲーム状況の傾向を最適化するToMPOアルゴリズムを提案する。
ToMPOアルゴリズムは、モデル出力のコンプライアンスと協調的な結果の点でGRPO法を35%上回る。
論文 参考訳(メタデータ) (2025-09-25T13:25:15Z) - Noise, Adaptation, and Strategy: Assessing LLM Fidelity in Decision-Making [0.030586855806896043]
大規模言語モデル(LLM)は、社会科学シミュレーションでますます使われている。
本研究では,LLMエージェントが外部誘導と人為的ノイズのレベルが異なる条件下でどのように適応するかを検討するためのプロセス指向評価フレームワークを提案する。
LLMは、デフォルトでは、観察された人間の行動から分岐する安定的で保守的な戦略に収束する。
論文 参考訳(メタデータ) (2025-08-21T18:55:53Z) - Beyond Nash Equilibrium: Bounded Rationality of LLMs and humans in Strategic Decision-making [33.2843381902912]
大規模言語モデルは、戦略的意思決定設定にますます使われている。
行動ゲーム理論研究に適応した実験パラダイムを用いて,LLMと人間を比較した。
論文 参考訳(メタデータ) (2025-06-11T04:43:54Z) - Comparing Exploration-Exploitation Strategies of LLMs and Humans: Insights from Standard Multi-armed Bandit Experiments [5.1382713576243955]
大規模言語モデル(LLM)は、シーケンシャルな意思決定設定で人間の振る舞いをシミュレートしたり、自動化したりするために、ますます使われている。
我々は、不確実性の下での動的意思決定の基本的な側面である、探査・探索(E&E)トレードオフに焦点を当てる。
LLMにおける思考を可能にすることは、ランダムな探索と指向的な探索の混合によって特徴付けられる、より人間的な行動へと行動を変える。
論文 参考訳(メタデータ) (2025-05-15T02:09:18Z) - MF-LLM: Simulating Population Decision Dynamics via a Mean-Field Large Language Model Framework [53.82097200295448]
MF-LLM(Mean-Field LLM)は,まず平均場理論を社会シミュレーションに取り入れる。
MF-LLMは反復過程を通じて個人と人口間の双方向相互作用をモデル化する。
IB-Tuneは、Information Bottleneckの原理にインスパイアされた、新しい微調整手法である。
論文 参考訳(メタデータ) (2025-04-30T12:41:51Z) - How Strategic Agents Respond: Comparing Analytical Models with LLM-Generated Responses in Strategic Classification [11.614944245315186]
我々は、エージェントと意思決定者の相互作用を研究するために戦略分類を用いる。
i) LLMはSC設定において効果的で社会的に責任のある戦略を生成することができるか?
意思決定方針にアクセスできなくても、LLMはエージェントのスコアと資格を改善する効果的な戦略を生み出すことができることを示す。
論文 参考訳(メタデータ) (2025-01-20T01:39:03Z) - A Large-Scale Simulation on Large Language Models for Decision-Making in Political Science [18.521101885334673]
我々は,大規模投票者の意思決定をシミュレートする理論駆動多段階推論フレームワークを開発した。
我々は、現実の有権者データに校正された合成人格を用いて、最近のアメリカ合衆国大統領選挙の大規模なシミュレーションを行う。
論文 参考訳(メタデータ) (2024-12-19T07:10:51Z) - Modeling Boundedly Rational Agents with Latent Inference Budgets [56.24971011281947]
エージェントの計算制約を明示的にモデル化する潜在推論予算モデル(L-IBM)を導入する。
L-IBMは、最適なアクターの多様な集団のデータを使ってエージェントモデルを学ぶことができる。
我々は,L-IBMが不確実性の下での意思決定のボルツマンモデルに適合しているか,あるいは上回っていることを示す。
論文 参考訳(メタデータ) (2023-12-07T03:55:51Z) - CoMPosT: Characterizing and Evaluating Caricature in LLM Simulations [61.9212914612875]
本研究では,LLMシミュレーションを4次元(コンテキスト,モデル,ペルソナ,トピック)で特徴付けるフレームワークを提案する。
我々は,この枠組みを用いて,オープンエンドLLMシミュレーションのキャラクチュアへの感受性を測定する。
GPT-4では、特定の人口動態(政治的・疎外化グループ)と話題(一般には非論争的)のシミュレーションは、似顔絵に非常に敏感であることが判明した。
論文 参考訳(メタデータ) (2023-10-17T18:00:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。