論文の概要: Can Generative AI agents behave like humans? Evidence from laboratory market experiments
- arxiv url: http://arxiv.org/abs/2505.07457v1
- Date: Mon, 12 May 2025 11:44:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.361769
- Title: Can Generative AI agents behave like humans? Evidence from laboratory market experiments
- Title(参考訳): 生成AIエージェントは人間のように振る舞うことができるか?実験室の市場実験による証拠
- Authors: R. Maria del Rio-Chanona, Marco Pangallo, Cars Hommes,
- Abstract要約: 経済市場実験において,人間の行動を再現する大規模言語モデルの可能性を探る。
実験室で観察されたLLM行動と市場動態を比較し,人間の行動との整合性を評価する。
これらの結果から,LLMは経済的文脈における現実的な人間の行動のシミュレーションツールとして有望であることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore the potential of Large Language Models (LLMs) to replicate human behavior in economic market experiments. Compared to previous studies, we focus on dynamic feedback between LLM agents: the decisions of each LLM impact the market price at the current step, and so affect the decisions of the other LLMs at the next step. We compare LLM behavior to market dynamics observed in laboratory settings and assess their alignment with human participants' behavior. Our findings indicate that LLMs do not adhere strictly to rational expectations, displaying instead bounded rationality, similarly to human participants. Providing a minimal context window i.e. memory of three previous time steps, combined with a high variability setting capturing response heterogeneity, allows LLMs to replicate broad trends seen in human experiments, such as the distinction between positive and negative feedback markets. However, differences remain at a granular level--LLMs exhibit less heterogeneity in behavior than humans. These results suggest that LLMs hold promise as tools for simulating realistic human behavior in economic contexts, though further research is needed to refine their accuracy and increase behavioral diversity.
- Abstract(参考訳): 本研究では,Large Language Models (LLMs) の経済市場実験における人間行動の再現の可能性を探る。
本研究は,LLMエージェント間の動的フィードバックに着目し,LLMエージェント間の動的フィードバックに着目した。
実験室で観察されたLLM行動と市場動態を比較し,人間の行動との整合性を評価する。
以上の結果から, LLMは合理的な期待に厳密に従わず, 代わりに有界な有理性を示すことが示唆された。
最小限のコンテキストウインドウ、すなわち3つの前のタイムステップのメモリを提供することと、応答の不均一性を捉える高い可変性の設定を組み合わせることで、LLMは、ポジティブなフィードバック市場とネガティブなフィードバックマーケットの区別のような、人間の実験で見られる幅広いトレンドを再現することができる。
しかし、粒度の差は残っており、-LLMは人間よりも行動の不均一性が低い。
これらの結果は,LLMが経済的文脈における現実的な人間の行動のシミュレーションツールとして期待できることを示しているが,その精度の向上と行動多様性の向上にはさらなる研究が必要であることを示唆している。
関連論文リスト
- Explaining Large Language Models Decisions Using Shapley Values [1.223779595809275]
大規模言語モデル(LLM)は、人間の行動や認知過程をシミュレートするエキサイティングな可能性を開いた。
しかし, LLMを人体用スタンドインとして活用する妥当性は, いまだに不明である。
本稿では,モデルの出力に対する各プロンプト成分の相対的寄与を定量化するために,シェープリー値に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T22:49:43Z) - A Theory of LLM Sampling: Part Descriptive and Part Prescriptive [53.08398658452411]
大規模言語モデル(LLM)は、自律的な意思決定にますます活用されている。
このサンプリング行動が人間の意思決定と類似していることが示される。
統計的ノルムから規範的成分へのサンプルの偏りは、様々な現実世界の領域にまたがる概念に一貫して現れることを示す。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z) - Systematic Biases in LLM Simulations of Debates [12.933509143906141]
人間の相互作用をシミュレートする際の大規模言語モデルの限界について検討する。
以上の結果から, LLMエージェントがモデル固有の社会的バイアスに適合する傾向が示唆された。
これらの結果は、エージェントがこれらのバイアスを克服するのに役立つ方法を開発するためのさらなる研究の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。