論文の概要: Predicting Biased Human Decision-Making with Large Language Models in Conversational Settings
- arxiv url: http://arxiv.org/abs/2601.11049v1
- Date: Fri, 16 Jan 2026 07:30:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.397185
- Title: Predicting Biased Human Decision-Making with Large Language Models in Conversational Settings
- Title(参考訳): 対話環境における大規模言語モデルを用いたバイアス付き人間の意思決定予測
- Authors: Stephen Pilli, Vivek Nallur,
- Abstract要約: 大規模言語モデル(LLM)は,会話環境において偏りのある意思決定を予測できることを示す。
また、これらの予測は人間の認知バイアスだけでなく、その影響が認知負荷の下でどのように変化するかも捉える。
- 参考スコア(独自算出の注目度): 0.48439699124726004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We examine whether large language models (LLMs) can predict biased decision-making in conversational settings, and whether their predictions capture not only human cognitive biases but also how those effects change under cognitive load. In a pre-registered study (N = 1,648), participants completed six classic decision-making tasks via a chatbot with dialogues of varying complexity. Participants exhibited two well-documented cognitive biases: the Framing Effect and the Status Quo Bias. Increased dialogue complexity resulted in participants reporting higher mental demand. This increase in cognitive load selectively, but significantly, increased the effect of the biases, demonstrating the load-bias interaction. We then evaluated whether LLMs (GPT-4, GPT-5, and open-source models) could predict individual decisions given demographic information and prior dialogue. While results were mixed across choice problems, LLM predictions that incorporated dialogue context were significantly more accurate in several key scenarios. Importantly, their predictions reproduced the same bias patterns and load-bias interactions observed in humans. Across all models tested, the GPT-4 family consistently aligned with human behavior, outperforming GPT-5 and open-source models in both predictive accuracy and fidelity to human-like bias patterns. These findings advance our understanding of LLMs as tools for simulating human decision-making and inform the design of conversational agents that adapt to user biases.
- Abstract(参考訳): 大規模言語モデル(LLM)が会話場面で偏りのある意思決定を予測できるかどうか,その予測が人間の認知バイアスだけでなく,認知負荷下での効果がどのように変化するかも検討した。
事前登録された研究(N = 1,648)では、参加者は様々な複雑さの対話を伴うチャットボットを通じて6つの古典的な意思決定タスクを完了した。
参加者は、フレイミング効果とステータスクオバイアスの2つのよく文書化された認知バイアスを示した。
対話の複雑さが増すと、参加者はより高い精神的要求を報告した。
この認知負荷の増加は選択的に、しかし顕著に、バイアスの影響を増大させ、負荷-バイアス相互作用を実証した。
次に, LLM (GPT-4, GPT-5, オープンソースモデル) が, 人口統計情報と先行対話から個々の決定を予測できるかどうかを検討した。
結果が選択問題に混在する一方で,対話コンテキストを組み込んだLLM予測は,いくつかの重要なシナリオにおいて有意に精度が高かった。
重要なことに、彼らの予測はヒトで観察された同じバイアスパターンと負荷-バイアス相互作用を再現した。
テストされたすべてのモデルにおいて、GPT-4ファミリーは人間の行動に一貫して適合し、予測精度と人間のようなバイアスパターンへの忠実さの両方において、GPT-5およびオープンソースモデルを上回った。
これらの知見は、人間の意思決定をシミュレートし、ユーザのバイアスに適応する会話エージェントの設計を通知するツールとしてのLCMの理解を深めるものである。
関連論文リスト
- From Five Dimensions to Many: Large Language Models as Precise and Interpretable Psychological Profilers [14.983442449498739]
本研究は,人間の心理特性の相関構造を,最小の量的入力からモデル化できるかどうかについて検討する。
我々は816人の個人から、他の9つの心理的尺度でのロールプレイを行うために、ビッグファイブ・パーソナリティ・スケールの反応を持つ様々なLSMを誘導した。
LLMは人間の心理的構造を捉えるのに顕著な精度を示した。
論文 参考訳(メタデータ) (2025-11-05T06:51:13Z) - Evaluating Bias in Spoken Dialogue LLMs for Real-World Decisions and Recommendations [18.706521321659995]
年齢、性別、アクセントなどのパラ言語的特徴は、モデル出力に影響を与える可能性がある。
オープンソースモデルは年齢や性別に敏感であり、推奨タスクはグループ間の格差を増幅する傾向がある。
この研究は、エンドツーエンドの音声対話モデルにおけるバイアスに関する最初の体系的な研究を提供する。
論文 参考訳(メタデータ) (2025-09-27T16:21:22Z) - Surface Fairness, Deep Bias: A Comparative Study of Bias in Language Models [45.41676783204022]
大規模言語モデル(LLM)におけるバイアスの様々なプロキシ尺度について検討する。
MMLU (Multi-subject benchmark) を用いた人格評価モデルでは, スコアの無作為かつ大半がランダムな差が生じることがわかった。
LLMアシスタントメモリとパーソナライゼーションの最近の傾向により、これらの問題は異なる角度から開かれている。
論文 参考訳(メタデータ) (2025-06-12T08:47:40Z) - Large Language Models Can Infer Personality from Free-Form User Interactions [0.0]
GPT-4は、パーソナリティを適度な精度で推測することができ、以前のアプローチよりも優れていた。
その結果,人格評価への直接的注力は,ユーザエクスペリエンスの低下を招いていないことがわかった。
予備的な分析は、人格推定の正確さは、社会デミノグラフィーのサブグループによってわずかに異なることを示唆している。
論文 参考訳(メタデータ) (2024-05-19T20:33:36Z) - Large Language Models Show Human-like Social Desirability Biases in Survey Responses [12.767606361552684]
人格評価が推定された場合,Large Language Models (LLMs) が特徴次元の望ましい端に向かってスコアを歪めていることを示す。
このバイアスは、GPT-4/3.5、Claude 3、Llama 3、PaLM-2を含む全ての試験モデルに存在する。
すべての質問のリバースコーディングはバイアスレベルを低下させるが、それらを取り除くことはできず、この効果はアクセプションバイアスによるものではないことを示唆している。
論文 参考訳(メタデータ) (2024-05-09T19:02:53Z) - Are Personalized Stochastic Parrots More Dangerous? Evaluating Persona
Biases in Dialogue Systems [103.416202777731]
我々は、対話モデルが採用するペルソナに付随する有害な行動の感度であると定義する「ペルソナバイアス」について検討する。
我々は,人格バイアスを有害な表現と有害な合意のバイアスに分類し,攻撃性,有害継続性,関連性,ステレオタイプ合意,および有害合意の5つの側面において,人格バイアスを測定する包括的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2023-10-08T21:03:18Z) - Instructed to Bias: Instruction-Tuned Language Models Exhibit Emergent Cognitive Bias [57.42417061979399]
近年の研究では、インストラクションチューニング(IT)と人間フィードバック(RLHF)による強化学習によって、大規模言語モデル(LM)の能力が劇的に向上していることが示されている。
本研究では,ITとRLHFがLMの意思決定と推論に与える影響について検討する。
以上の結果から,GPT-3,Mistral,T5ファミリーの各種モデルにおけるこれらのバイアスの存在が示唆された。
論文 参考訳(メタデータ) (2023-08-01T01:39:25Z) - Partner Matters! An Empirical Study on Fusing Personas for Personalized
Response Selection in Retrieval-Based Chatbots [51.091235903442715]
本稿では,自己とパートナーの話者が応答選択の課題に与える影響について検討する。
4つのペルソナ融合戦略が設計されており、異なる方法でペルソナがコンテキストや応答と相互作用することを前提としている。
Persona-Chatデータセットに関する実証研究は、パートナーペルソナが応答選択の精度を向上させることができることを示している。
論文 参考訳(メタデータ) (2021-05-19T10:32:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。