論文の概要: Discovering Differences in Strategic Behavior Between Humans and LLMs
- arxiv url: http://arxiv.org/abs/2602.10324v1
- Date: Tue, 10 Feb 2026 22:02:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.305426
- Title: Discovering Differences in Strategic Behavior Between Humans and LLMs
- Title(参考訳): 人間とLDMの戦略的行動の差異を明らかにする
- Authors: Caroline Wang, Daniel Kasenberg, Kim Stachenfeld, Pablo Samuel Castro,
- Abstract要約: 大規模言語モデル(LLM)は、社会的および戦略的シナリオにますます多くデプロイされている。
我々は、最先端のプログラム発見ツールであるAlphaEvolveを用いて、データから人間とLLMの動作の解釈可能なモデルを直接発見する。
繰り返し岩盤紙のシッセについて分析したところ、フロンティアLSMは人間よりも深い戦略行動が可能であることが判明した。
- 参考スコア(独自算出の注目度): 22.672379469260502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Large Language Models (LLMs) are increasingly deployed in social and strategic scenarios, it becomes critical to understand where and why their behavior diverges from that of humans. While behavioral game theory (BGT) provides a framework for analyzing behavior, existing models do not fully capture the idiosyncratic behavior of humans or black-box, non-human agents like LLMs. We employ AlphaEvolve, a cutting-edge program discovery tool, to directly discover interpretable models of human and LLM behavior from data, thereby enabling open-ended discovery of structural factors driving human and LLM behavior. Our analysis on iterated rock-paper-scissors reveals that frontier LLMs can be capable of deeper strategic behavior than humans. These results provide a foundation for understanding structural differences driving differences in human and LLM behavior in strategic interactions.
- Abstract(参考訳): 大規模言語モデル(LLM)が社会的・戦略的シナリオにますます展開されるにつれて、その行動が人間の行動とどのように異なるかを理解することが重要になる。
行動ゲーム理論(BGT)は行動分析の枠組みを提供するが、既存のモデルは人間やブラックボックスのような非人間エージェントの慣用的行動を完全に捉えていない。
我々は、最先端のプログラム発見ツールであるAlphaEvolveを用いて、データから人間とLLMの動作の解釈可能なモデルを直接発見し、人間とLLMの動作を駆動する構造因子のオープンな発見を可能にする。
繰り返し岩盤紙のシッセについて分析したところ、フロンティアLSMは人間よりも深い戦略行動が可能であることが判明した。
これらの結果は、戦略的相互作用における人間とLLMの挙動の違いを駆動する構造的差異を理解する基盤となる。
関連論文リスト
- HumanLLM: Towards Personalized Understanding and Simulation of Human Nature [72.55730315685837]
HumanLLMは個人のパーソナライズされた理解とシミュレーションのために設計された基礎モデルである。
私たちはまず、Reddit、Twitter、Blogger、Amazonといったプラットフォーム上で、現実世界のユーザデータをキュレートした大規模なコーパスであるCognitive Genomeを構築しました。
次に、多様な学習タスクを定式化し、教師付き微調整を行い、モデルの幅広い個人化された人間の行動、思考、経験を予測する。
論文 参考訳(メタデータ) (2026-01-22T09:27:27Z) - Social Simulations with Large Language Model Risk Utopian Illusion [61.358959720048354]
社会シミュレーションにおける大規模言語モデルの行動分析のための体系的枠組みを提案する。
本手法は,チャットルーム型会話を通してマルチエージェントインタラクションをシミュレートし,5つの言語的側面にわたって解析する。
以上の結果から,LSMは真の人間の行動を忠実に再現するのではなく,過度に理想化されたバージョンを反映していることが明らかとなった。
論文 参考訳(メタデータ) (2025-10-24T06:08:41Z) - Beyond Nash Equilibrium: Bounded Rationality of LLMs and humans in Strategic Decision-making [33.2843381902912]
大規模言語モデルは、戦略的意思決定設定にますます使われている。
行動ゲーム理論研究に適応した実験パラダイムを用いて,LLMと人間を比較した。
論文 参考訳(メタデータ) (2025-06-11T04:43:54Z) - From Tokens to Thoughts: How LLMs and Humans Trade Compression for Meaning [63.25540801694765]
大きな言語モデル (LLMs) は言語能力を示すが、同じバランスをとれるかどうかは不明だ。
本稿では,LLMと人間を定量的に比較するために,Information Bottleneckの原理を適用した。
論文 参考訳(メタデータ) (2025-05-21T16:29:00Z) - Comparing Exploration-Exploitation Strategies of LLMs and Humans: Insights from Standard Multi-armed Bandit Experiments [5.1382713576243955]
大規模言語モデル(LLM)は、シーケンシャルな意思決定設定で人間の振る舞いをシミュレートしたり、自動化したりするために、ますます使われている。
我々は、不確実性の下での動的意思決定の基本的な側面である、探査・探索(E&E)トレードオフに焦点を当てる。
LLMにおける思考を可能にすることは、ランダムな探索と指向的な探索の混合によって特徴付けられる、より人間的な行動へと行動を変える。
論文 参考訳(メタデータ) (2025-05-15T02:09:18Z) - Can Machines Think Like Humans? A Behavioral Evaluation of LLM-Agents in Dictator Games [7.504095239018173]
LLM(Large Language Model)ベースのエージェントは、現実のタスクを担い、人間の社会と関わるようになっている。
独裁者ゲームにおけるAIエージェントの利他的行動に異なるペルソナと実験的フレーミングがどう影響するかを検討する。
LLMに人間のようなアイデンティティを割り当てても、人間のような振る舞いは生じないことを示す。
論文 参考訳(メタデータ) (2024-10-28T17:47:41Z) - Can Large Language Model Agents Simulate Human Trust Behavior? [81.45930976132203]
本研究では,Large Language Model (LLM) エージェントが人間の信頼行動をシミュレートできるかどうかを検討する。
GPT-4は、信頼行動の観点から、人間と高い行動アライメントを示す。
また、エージェント信頼のバイアスや、他のLSMエージェントや人間に対するエージェント信頼の差についても検討する。
論文 参考訳(メタデータ) (2024-02-07T03:37:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。