論文の概要: Beyond Nash Equilibrium: Bounded Rationality of LLMs and humans in Strategic Decision-making
- arxiv url: http://arxiv.org/abs/2506.09390v1
- Date: Wed, 11 Jun 2025 04:43:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.475974
- Title: Beyond Nash Equilibrium: Bounded Rationality of LLMs and humans in Strategic Decision-making
- Title(参考訳): ナッシュ平衡を超えて:戦略決定におけるLDMと人間の境界性
- Authors: Kehan Zheng, Jinfeng Zhou, Hongning Wang,
- Abstract要約: 大規模言語モデルは、戦略的意思決定設定にますます使われている。
行動ゲーム理論研究に適応した実験パラダイムを用いて,LLMと人間を比較した。
- 参考スコア(独自算出の注目度): 33.2843381902912
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models are increasingly used in strategic decision-making settings, yet evidence shows that, like humans, they often deviate from full rationality. In this study, we compare LLMs and humans using experimental paradigms directly adapted from behavioral game-theory research. We focus on two well-studied strategic games, Rock-Paper-Scissors and the Prisoner's Dilemma, which are well known for revealing systematic departures from rational play in human subjects. By placing LLMs in identical experimental conditions, we evaluate whether their behaviors exhibit the bounded rationality characteristic of humans. Our findings show that LLMs reproduce familiar human heuristics, such as outcome-based strategy switching and increased cooperation when future interaction is possible, but they apply these rules more rigidly and demonstrate weaker sensitivity to the dynamic changes in the game environment. Model-level analyses reveal distinctive architectural signatures in strategic behavior, and even reasoning models sometimes struggle to find effective strategies in adaptive situations. These results indicate that current LLMs capture only a partial form of human-like bounded rationality and highlight the need for training methods that encourage flexible opponent modeling and stronger context awareness.
- Abstract(参考訳): 大規模な言語モデルは、戦略的な意思決定設定にますます使われていますが、人間と同様に、完全に合理性から逸脱することが多いことが証拠として示されています。
本研究では,行動ゲーム理論研究から直接適応した実験パラダイムを用いて,LLMと人間を比較した。
我々は,人体における合理的な遊びから体系的に逸脱することで知られる,ロック・パパー・シッサイザーと囚人のジレンマという,よく研究されている2つの戦略ゲームに焦点を当てる。
LLMを同一実験条件に配置することにより、人間の有界合理性特性を示すかを評価する。
以上の結果から, LLMは, ゲーム環境の動的変化に対して, より厳密に, より弱い敏感さを示すとともに, 結果に基づく戦略スイッチングや協調性の向上など, 慣れ親しんだ人間のヒューリスティックスを再現できることが示唆された。
モデルレベルの分析では、戦略行動に特有のアーキテクチャ上の特徴が示され、推論モデルでさえ、適応的な状況において効果的な戦略を見つけるのに苦労することがある。
これらの結果から、現在のLLMは人間のような有界な有理性の部分的な形態のみを捉え、フレキシブルな相手モデリングと強い文脈認識を促進する訓練方法の必要性を強調している。
関連論文リスト
- Humans expect rationality and cooperation from LLM opponents in strategic games [0.0]
本研究は,人間の行動の差異に着目した最初の金銭的インセンティブを持つ実験室実験の結果である。
この環境下では,LLMと対戦する被験者は人間よりも有意に少ない数を選択する。
この変化は、主に戦略的推論能力の高い被験者によって引き起こされる。
論文 参考訳(メタデータ) (2025-05-16T09:01:09Z) - Comparing Exploration-Exploitation Strategies of LLMs and Humans: Insights from Standard Multi-armed Bandit Tasks [6.355245936740126]
大規模言語モデル(LLM)は、シーケンシャルな意思決定タスクにおいて、人間の振る舞いをシミュレートしたり、自動化したりするためにますます使われている。
我々は、不確実性の下での動的意思決定の基本的な側面である、探査・探索(E&E)トレードオフに焦点を当てる。
推論は、ランダムな探索と指向的な探索の混在を特徴とする、より人間的な行動へとLSMをシフトさせる。
論文 参考訳(メタデータ) (2025-05-15T02:09:18Z) - LLM-driven Imitation of Subrational Behavior : Illusion or Reality? [3.2365468114603937]
既存の作業は、複雑な推論タスクに対処し、人間のコミュニケーションを模倣する大規模言語モデルの能力を強調している。
そこで本研究では,LLMを用いて人工人体を合成し,サブリレーショナル・エージェント・ポリシーを学習する手法を提案する。
我々は,4つの単純なシナリオを通して,サブリレータリティをモデル化するフレームワークの能力について実験的に評価した。
論文 参考訳(メタデータ) (2024-02-13T19:46:39Z) - Systematic Biases in LLM Simulations of Debates [12.933509143906141]
人間の相互作用をシミュレートする際の大規模言語モデルの限界について検討する。
以上の結果から, LLMエージェントがモデル固有の社会的バイアスに適合する傾向が示唆された。
これらの結果は、エージェントがこれらのバイアスを克服するのに役立つ方法を開発するためのさらなる研究の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - K-Level Reasoning: Establishing Higher Order Beliefs in Large Language Models for Strategic Reasoning [76.3114831562989]
マルチエージェント環境で戦略を動的に適応させるためには、LLM(Large Language Model)エージェントが必要である。
我々は,「K-Level Reasoning with Large Language Models (K-R)」という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:07:05Z) - ALYMPICS: LLM Agents Meet Game Theory -- Exploring Strategic
Decision-Making with AI Agents [77.34720446306419]
Alympicsは、ゲーム理論の研究にLarge Language Model (LLM)エージェントを利用する、体系的なシミュレーションフレームワークである。
Alympicsは、複雑なゲーム理論の問題を研究するための汎用的なプラットフォームを作成する。
論文 参考訳(メタデータ) (2023-11-06T16:03:46Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。