論文の概要: Pay What LLM Wants: Can LLM Simulate Economics Experiment with 522 Real-human Persona?
- arxiv url: http://arxiv.org/abs/2508.03262v1
- Date: Tue, 05 Aug 2025 09:37:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.892756
- Title: Pay What LLM Wants: Can LLM Simulate Economics Experiment with 522 Real-human Persona?
- Title(参考訳): LLMが望むものは? LLMは522人の人間で経済学をシミュレートできるのか?
- Authors: Junhyuk Choi, Hyeonchu Park, Haemin Lee, Hyebeen Shin, Hyun Joung Jin, Bugeun Kim,
- Abstract要約: 実際の522人の人物を用いたPay-What-You-Want価格設定実験を用いて,大規模言語モデルによる個人経済意思決定の予測能力を評価する。
その結果、LSMは正確な個人レベルの予測に苦しむ一方で、合理的なグループレベルの行動傾向を示すことが明らかとなった。
- 参考スコア(独自算出の注目度): 1.931250555574267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in Large Language Models (LLMs) have generated significant interest in their capacity to simulate human-like behaviors, yet most studies rely on fictional personas rather than actual human data. We address this limitation by evaluating LLMs' ability to predict individual economic decision-making using Pay-What-You-Want (PWYW) pricing experiments with real 522 human personas. Our study systematically compares three state-of-the-art multimodal LLMs using detailed persona information from 522 Korean participants in cultural consumption scenarios. We investigate whether LLMs can accurately replicate individual human choices and how persona injection methods affect prediction performance. Results reveal that while LLMs struggle with precise individual-level predictions, they demonstrate reasonable group-level behavioral tendencies. Also, we found that commonly adopted prompting techniques are not much better than naive prompting methods; reconstruction of personal narrative nor retrieval augmented generation have no significant gain against simple prompting method. We believe that these findings can provide the first comprehensive evaluation of LLMs' capabilities on simulating economic behavior using real human data, offering empirical guidance for persona-based simulation in computational social science.
- Abstract(参考訳): 近年のLarge Language Models (LLM) の進歩は、人間のような振る舞いをシミュレートする能力に大きな関心を惹き付けているが、ほとんどの研究は、実際の人間のデータではなく架空のペルソナに依存している。
我々は、実際の522人の人物を用いたPWYW(Pay-What-You-Want)価格設定実験を用いて、LCMの個人経済意思決定能力を評価することにより、この制限に対処する。
本研究は, 韓国人522人を対象に, 文化的消費シナリオの詳細な人格情報を用いて, 最先端のマルチモーダルLLM3つを体系的に比較した。
LLMが個人の選択を正確に再現できるかどうか、そしてペルソナ注入法が予測性能に与える影響について検討する。
その結果、LSMは正確な個人レベルの予測に苦しむ一方で、合理的なグループレベルの行動傾向を示すことが明らかとなった。
また,一般に採用されているプロンプト法は,ナイーブ・プロンプト法よりもあまり良くないことがわかった。
これらの知見は、実際の人的データを用いた経済行動のシミュレーションにおけるLLMの能力を総合的に評価し、計算社会科学におけるペルソナに基づくシミュレーションの実証的なガイダンスを提供することができると信じている。
関連論文リスト
- OPeRA: A Dataset of Observation, Persona, Rationale, and Action for Evaluating LLMs on Human Online Shopping Behavior Simulation [56.47029531207105]
OPERAは、ユーザペルソナ、ブラウザの観察、きめ細かいWebアクション、そして自己報告されたジャストインタイム論理を包括的にキャプチャする最初のパブリックデータセットである。
我々は,現在のLCMがユーザの次の行動と合理的性をどの程度予測できるかを評価するための最初のベンチマークを確立する。
論文 参考訳(メタデータ) (2025-06-05T21:37:49Z) - LLM Social Simulations Are a Promising Research Method [4.6456873975541635]
我々は,5つの難題に対処することで,LLM社会シミュレーションの約束を達成できると主張している。
LLMの社会シミュレーションは、すでにパイロット実験や探索研究に利用できると信じている。
研究者は、新しいAIシステムを最大限に活用するために、概念モデルと反復評価の開発を優先すべきである。
論文 参考訳(メタデータ) (2025-04-03T03:01:26Z) - Prompting is Not All You Need! Evaluating LLM Agent Simulation Methodologies with Real-World Online Customer Behavior Data [62.61900377170456]
人間の行動のシミュレーションにおいて「主観的信頼性」よりも「LLMの客観的精度」を評価することに重点を置いている。
本稿では,Web ショッピング行動生成の課題に対して,最先端 LLM の総合評価を行った。
論文 参考訳(メタデータ) (2025-03-26T17:33:27Z) - LLM Generated Persona is a Promise with a Catch [18.45442859688198]
ペルソナをベースとしたシミュレーションは、人口レベルのフィードバックに依存した変革の規律を約束する。
現実的なペルソナデータを収集する従来の方法は課題に直面します。
プライバシーの制約により、違法に高価で物議を醸している。
論文 参考訳(メタデータ) (2025-03-18T03:11:27Z) - Can LLMs Simulate Social Media Engagement? A Study on Action-Guided Response Generation [51.44040615856536]
本稿では、行動誘導応答生成によるソーシャルメディアのエンゲージメントをシミュレートする大規模言語モデルの能力について分析する。
GPT-4o-mini,O1-mini,DeepSeek-R1をソーシャルメディアエンゲージメントシミュレーションで評価した。
論文 参考訳(メタデータ) (2025-02-17T17:43:08Z) - Take Caution in Using LLMs as Human Surrogates: Scylla Ex Machina [7.155982875107922]
研究は、大規模言語モデル(LLM)が、経済実験、調査、政治談話において、人間の行動と整合した人間的な推論を示す可能性があることを示唆している。
このことから、LLMは社会科学研究において人間の代理やシミュレーションとして使用できると多くの人が提案している。
11~20のマネーリクエストゲームを用いてLCMの推論深度を評価する。
論文 参考訳(メタデータ) (2024-10-25T14:46:07Z) - Agentic Society: Merging skeleton from real world and texture from Large Language Model [4.740886789811429]
本稿では,人口統計データと大規模言語モデルを利用して仮想人口を生成する新しい枠組みについて検討する。
本手法は,社会科学実験において,多様な人間の行動のシミュレーションに不可欠な多様性のあるペルソナを生産することを示す。
しかし, 評価結果から, 現在のLSMの能力に限界があるため, 統計的真理性の弱い兆候しか得られないことが示唆された。
論文 参考訳(メタデータ) (2024-09-02T08:28:19Z) - Character is Destiny: Can Role-Playing Language Agents Make Persona-Driven Decisions? [59.0123596591807]
我々は、ペルソナ駆動意思決定におけるLarge Language Models(LLM)の能力をベンチマークする。
高品質な小説において, LLM が先行する物語のキャラクターの判断を予測できるかどうかを検討する。
その結果、現状のLLMは、このタスクに有望な能力を示すが、改善の余地は残されている。
論文 参考訳(メタデータ) (2024-04-18T12:40:59Z) - Can LLMs Replace Economic Choice Prediction Labs? The Case of Language-based Persuasion Games [22.01549425007543]
学習したモデルは,言語に基づく説得ゲームにおいて,人間の行動を効果的に予測できることを示す。
実験の結果,LLMデータでトレーニングしたモデルは,実際の人的データでトレーニングしたモデルよりも優れていた。
論文 参考訳(メタデータ) (2024-01-30T20:49:47Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - Can ChatGPT Assess Human Personalities? A General Evaluation Framework [70.90142717649785]
大きな言語モデル(LLM)は、様々な分野で印象的な成果を上げてきたが、その潜在的な人間のような心理学はいまだに研究されていない。
本稿では,Mers Briggs Type Indicator (MBTI) テストに基づく人格評価のための総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-01T06:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。