論文の概要: Identity, Cooperation and Framing Effects within Groups of Real and Simulated Humans
- arxiv url: http://arxiv.org/abs/2601.16355v1
- Date: Thu, 22 Jan 2026 22:41:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.426277
- Title: Identity, Cooperation and Framing Effects within Groups of Real and Simulated Humans
- Title(参考訳): 実・模擬人間集団におけるアイデンティティ, 協力, フラーミング効果
- Authors: Suhong Moon, Minwoo Kang, Joseph Suh, Mustafa Safdari, John Canny,
- Abstract要約: 大規模言語モデル(LLM)が社会的ジレンマゲームにおける人間の行動をどのようにシミュレートするかを考察する。
シミュレーションの忠実度と人間の研究は、物語のアイデンティティの豊かなコンテキストを持つベースLMを条件付けすることで改善される。
- 参考スコア(独自算出の注目度): 6.786634345055973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans act via a nuanced process that depends both on rational deliberation and also on identity and contextual factors. In this work, we study how large language models (LLMs) can simulate human action in the context of social dilemma games. While prior work has focused on "steering" (weak binding) of chat models to simulate personas, we analyze here how deep binding of base models with extended backstories leads to more faithful replication of identity-based behaviors. Our study has these findings: simulation fidelity vs human studies is improved by conditioning base LMs with rich context of narrative identities and checking consistency using instruction-tuned models. We show that LLMs can also model contextual factors such as time (year that a study was performed), question framing, and participant pool effects. LLMs, therefore, allow us to explore the details that affect human studies but which are often omitted from experiment descriptions, and which hamper accurate replication.
- Abstract(参考訳): 人間は合理的な熟考にも、アイデンティティや文脈要因にも依存するニュアンスなプロセスを通して行動する。
本研究では,大規模言語モデル(LLM)が社会的ジレンマゲームにおける人間の行動をどのようにシミュレートするかを検討する。
以前の作業では、ペルソナをシミュレートするためのチャットモデルの"ステアリング(弱いバインディング)"に注目していましたが、ここでは、バックストリーの拡張によるベースモデルのディープバインディングが、アイデンティティベースの振る舞いをより忠実に再現する上で、どのように影響するかを分析します。
シミュレーションの忠実度と人間の研究は、物語のアイデンティティの豊富な文脈で基本LMを条件付けし、命令調整モデルを用いて一貫性をチェックすることにより改善される。
LLMは、時間(研究が実施された年)、質問フレーミング、参加者プール効果などの文脈的要因をモデル化できることを示す。
したがって、LLMは人間の研究に影響を与えるが、しばしば実験記述から省略され、正確な複製を妨げている詳細を調査することができる。
関連論文リスト
- HumanLLM: Towards Personalized Understanding and Simulation of Human Nature [72.55730315685837]
HumanLLMは個人のパーソナライズされた理解とシミュレーションのために設計された基礎モデルである。
私たちはまず、Reddit、Twitter、Blogger、Amazonといったプラットフォーム上で、現実世界のユーザデータをキュレートした大規模なコーパスであるCognitive Genomeを構築しました。
次に、多様な学習タスクを定式化し、教師付き微調整を行い、モデルの幅広い個人化された人間の行動、思考、経験を予測する。
論文 参考訳(メタデータ) (2026-01-22T09:27:27Z) - Large language models replicate and predict human cooperation across experiments in game theory [0.8166364251367626]
大きな言語モデルが実際の人間の意思決定をいかに反映しているかは、いまだに理解されていない。
我々は,ゲーム理論実験のディジタルツインを開発し,機械行動評価のためのシステマティック・プロンプトと探索の枠組みを導入する。
Llamaは人間の協調パターンを高い忠実度で再現し、合理的選択理論から人間の偏差を捉える。
論文 参考訳(メタデータ) (2025-11-06T16:21:27Z) - TwinVoice: A Multi-dimensional Benchmark Towards Digital Twins via LLM Persona Simulation [55.55404595177229]
大型言語モデル(LLM)は、人間のような能力を示す。
TwinVoiceは、さまざまな現実世界のコンテキストにわたるペルソナシミュレーションを評価するためのベンチマークである。
論文 参考訳(メタデータ) (2025-10-29T14:00:42Z) - SimBench: Benchmarking the Ability of Large Language Models to Simulate Human Behaviors [58.87134689752605]
我々は,LLMシミュレーションの堅牢で再現可能な科学のための,最初の大規模標準ベンチマークであるSimBenchを紹介する。
現在、最高のLLMでさえシミュレーション能力が限られ(スコア: 40.80/100)、性能はモデルサイズと対数的にスケールする。
シミュレーション能力は、深い知識集約的推論と最も強く相関していることを示す。
論文 参考訳(メタデータ) (2025-10-20T13:14:38Z) - Modeling Understanding of Story-Based Analogies Using Large Language Models [1.4999444543328293]
大規模言語モデルの最近の進歩は、様々なタスクにおける人間の認識のマッチングに近づきつつある。
これらのモデルは、アナログの検出とマッピングにおいて、人間のパフォーマンスとどの程度うまく一致しますか?
論文 参考訳(メタデータ) (2025-07-15T03:40:21Z) - LLM-driven Imitation of Subrational Behavior : Illusion or Reality? [3.2365468114603937]
既存の作業は、複雑な推論タスクに対処し、人間のコミュニケーションを模倣する大規模言語モデルの能力を強調している。
そこで本研究では,LLMを用いて人工人体を合成し,サブリレーショナル・エージェント・ポリシーを学習する手法を提案する。
我々は,4つの単純なシナリオを通して,サブリレータリティをモデル化するフレームワークの能力について実験的に評価した。
論文 参考訳(メタデータ) (2024-02-13T19:46:39Z) - Systematic Biases in LLM Simulations of Debates [12.933509143906141]
人間の相互作用をシミュレートする際の大規模言語モデルの限界について検討する。
以上の結果から, LLMエージェントがモデル固有の社会的バイアスに適合する傾向が示唆された。
これらの結果は、エージェントがこれらのバイアスを克服するのに役立つ方法を開発するためのさらなる研究の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。