論文の概要: LLM-Stackelberg Games: Conjectural Reasoning Equilibria and Their Applications to Spearphishing
- arxiv url: http://arxiv.org/abs/2507.09407v1
- Date: Sat, 12 Jul 2025 21:42:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:23.158591
- Title: LLM-Stackelberg Games: Conjectural Reasoning Equilibria and Their Applications to Spearphishing
- Title(参考訳): LLM-Stackelberg Games:Conjectural Reasoning Equilibriaとそのスピアフィッシングへの応用
- Authors: Quanyan Zhu,
- Abstract要約: 本稿では,大規模言語モデル(LLM)を戦略的相互作用に統合する逐次意思決定モデルの枠組みを紹介する。
LLM-Stackelbergゲームは,サイバーセキュリティや誤情報,レコメンデーションシステムといった領域において,意思決定をモデル化するための強力なパラダイムを提供する。
- 参考スコア(独自算出の注目度): 15.764094200832071
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the framework of LLM-Stackelberg games, a class of sequential decision-making models that integrate large language models (LLMs) into strategic interactions between a leader and a follower. Departing from classical Stackelberg assumptions of complete information and rational agents, our formulation allows each agent to reason through structured prompts, generate probabilistic behaviors via LLMs, and adapt their strategies through internal cognition and belief updates. We define two equilibrium concepts: reasoning and behavioral equilibrium, which aligns an agent's internal prompt-based reasoning with observable behavior, and conjectural reasoning equilibrium, which accounts for epistemic uncertainty through parameterized models over an opponent's response. These layered constructs capture bounded rationality, asymmetric information, and meta-cognitive adaptation. We illustrate the framework through a spearphishing case study, where a sender and a recipient engage in a deception game using structured reasoning prompts. This example highlights the cognitive richness and adversarial potential of LLM-mediated interactions. Our results show that LLM-Stackelberg games provide a powerful paradigm for modeling decision-making in domains such as cybersecurity, misinformation, and recommendation systems.
- Abstract(参考訳): LLM-Stackelbergゲームは,大規模言語モデル(LLM)をリーダとフォロワー間の戦略的相互作用に統合する逐次決定モデルである。
従来のStackelbergの完全な情報と合理的エージェントの仮定とは別に、我々の定式化により、各エージェントは構造化されたプロンプトを通して推論し、LCMを通して確率的振る舞いを生成し、内部認知と信念の更新を通じて戦略を適用することができる。
本稿では,エージェントの内部的なプロンプトに基づく推論と観測可能な振る舞いとを一致させる推論と行動均衡と,相手の反応に対するパラメータ化モデルによる認識の不確かさを考慮に入れた客観的推論均衡という2つの平衡概念を定義する。
これらの階層構造は、有界な有理性、非対称情報、メタ認知適応をキャプチャする。
提案手法は,送り手と受け手が構造化推論プロンプトを用いて騙しゲームを行う,ピアフィッシングケーススタディを通じて説明する。
この例では、LLMを介する相互作用の認知的豊かさと敵対的ポテンシャルを強調している。
LLM-Stackelbergゲームは,サイバーセキュリティや誤情報,レコメンデーションシステムといった領域において,意思決定をモデル化するための強力なパラダイムを提供する。
関連論文リスト
- Integrating LLM in Agent-Based Social Simulation: Opportunities and Challenges [0.7739037410679168]
本稿では,人間の認知の重要な側面を再現する大規模言語モデルの能力に関する最近の知見をレビューする。
第2部はマルチエージェント・シミュレーション・フレームワークにおけるLLMの新しい応用について調査している。
この論文は、従来のエージェントベースモデリングプラットフォームにLLMを統合するハイブリッドアプローチを提唱することで締めくくっている。
論文 参考訳(メタデータ) (2025-07-25T15:15:35Z) - Reasoning and Behavioral Equilibria in LLM-Nash Games: From Mindsets to Actions [15.764094200832071]
LLM-Nashフレームワークは、エージェントが大言語モデル(LLM)を介して意思決定をガイドする推論プロンプトを選択するゲーム理論モデルである。
効用最大化エージェントを完全合理性で仮定する古典ゲームとは異なり、このフレームワークは推論過程を明示的にモデル化することによって有界合理性を取得する。
論文 参考訳(メタデータ) (2025-07-10T22:43:00Z) - KORGym: A Dynamic Game Platform for LLM Reasoning Evaluation [78.96590724864606]
我々はKOR-BenchとGymnasiumに触発された動的評価プラットフォームであるKORGym(Knowledge Orthogonal Reasoning Gymnasium)を紹介する。
KORGymはテキストまたはビジュアル形式で50以上のゲームを提供し、強化学習シナリオによるインタラクティブでマルチターンアセスメントをサポートする。
論文 参考訳(メタデータ) (2025-05-20T16:06:32Z) - Review of Case-Based Reasoning for LLM Agents: Theoretical Foundations, Architectural Components, and Cognitive Integration [0.0]
ケースベース推論(CBR)は、過去の経験を参照することによって、新しい問題を解決する戦略である。
本稿では、過去の経験を参照して新しい問題を解決する戦略であるケースベース推論(CBR)を大規模言語モデルに組み込む方法について考察する。
論文 参考訳(メタデータ) (2025-04-09T14:51:02Z) - LogiDynamics: Unraveling the Dynamics of Logical Inference in Large Language Model Reasoning [49.58786377307728]
本稿では、類似推論のための制御された評価環境を導入することにより、探索的アプローチを採用する。
帰納的,帰納的,帰納的,帰納的な推論パイプラインの比較力学を解析する。
仮説選択や検証,洗練といった高度なパラダイムを考察し,論理的推論のスケールアップの可能性を明らかにする。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Approximating Human Strategic Reasoning with LLM-Enhanced Recursive Reasoners Leveraging Multi-agent Hypergames [3.5083201638203154]
我々は、洗練された推論者に適したロールベースのマルチエージェント戦略相互作用フレームワークを実装した。
我々は,最新のLCMの推論能力を評価するために,ワンショット2プレーヤ美容コンテストを用いた。
実験の結果,人間行動の近似と最適解への到達の両面で,人工推論がベースラインモデルより優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-11T10:37:20Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - Language Agents Meet Causality -- Bridging LLMs and Causal World Models [50.79984529172807]
因果表現学習を大規模言語モデルと統合する枠組みを提案する。
このフレームワークは、自然言語表現に関連付けられた因果変数を持つ因果世界モデルを学ぶ。
本研究では,時間的スケールと環境の複雑さを考慮した因果推論と計画課題の枠組みを評価する。
論文 参考訳(メタデータ) (2024-10-25T18:36:37Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。