論文の概要: Persona-Assigned Large Language Models Exhibit Human-Like Motivated Reasoning
- arxiv url: http://arxiv.org/abs/2506.20020v1
- Date: Tue, 24 Jun 2025 21:35:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.539227
- Title: Persona-Assigned Large Language Models Exhibit Human-Like Motivated Reasoning
- Title(参考訳): パーソナ指定大言語モデルによる人間ライクな動機付け
- Authors: Saloni Dash, Amélie Reymond, Emma S. Spiro, Aylin Caliskan,
- Abstract要約: 人間における推論は、アイデンティティ保護のような根底にあるモチベーションのためにバイアスを起こしやすい。
本研究では,4つの政治的・社会的な属性に8つのペルソナを割り当てることによって,大きな言語モデルにおける動機づけが引き起こされるかどうかを検討する。
- 参考スコア(独自算出の注目度): 5.697110454224871
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reasoning in humans is prone to biases due to underlying motivations like identity protection, that undermine rational decision-making and judgment. This motivated reasoning at a collective level can be detrimental to society when debating critical issues such as human-driven climate change or vaccine safety, and can further aggravate political polarization. Prior studies have reported that large language models (LLMs) are also susceptible to human-like cognitive biases, however, the extent to which LLMs selectively reason toward identity-congruent conclusions remains largely unexplored. Here, we investigate whether assigning 8 personas across 4 political and socio-demographic attributes induces motivated reasoning in LLMs. Testing 8 LLMs (open source and proprietary) across two reasoning tasks from human-subject studies -- veracity discernment of misinformation headlines and evaluation of numeric scientific evidence -- we find that persona-assigned LLMs have up to 9% reduced veracity discernment relative to models without personas. Political personas specifically, are up to 90% more likely to correctly evaluate scientific evidence on gun control when the ground truth is congruent with their induced political identity. Prompt-based debiasing methods are largely ineffective at mitigating these effects. Taken together, our empirical findings are the first to suggest that persona-assigned LLMs exhibit human-like motivated reasoning that is hard to mitigate through conventional debiasing prompts -- raising concerns of exacerbating identity-congruent reasoning in both LLMs and humans.
- Abstract(参考訳): 人間における推論は、合理的な意思決定や判断を損なうアイデンティティ保護のような基本的な動機によってバイアスを起こしやすい。
この集団レベルでの動機付けられた推論は、人間主導の気候変動やワクチンの安全性といった重要な問題を議論する際に社会に有害であり、政治的分極をさらに悪化させる可能性がある。
以前の研究では、大きな言語モデル(LLM)も人間のような認知バイアスの影響を受けやすいと報告されているが、LLMがアイデンティティと矛盾する結論を選択的に導く程度は、まだ明らかにされていない。
ここでは,4つの政治的・社会的な属性に8つのペルソナを割り当てることが,LLMにおける動機付け的推論を誘導するか否かを検討する。
8個のLSM(オープンソースとプロプライエタリ)を、人間の対象とする研究から得られた2つの推論タスク(誤情報見出しの正確さの識別と数値的な科学的証拠の評価)でテストした結果、ペルソナに割り当てられたLSMは、ペルソナのないモデルと比較して最大9%の精度の識別が減少していることが判明した。
政治的ペルソナは、銃規制に関する科学的証拠を正しく評価する可能性が最大90%高い。
プロンプトに基づく脱バイアス法は、これらの効果を緩和するのにほとんど効果がない。
私たちの経験的発見は、ペルソナに割り当てられたLLMが、従来のデビアシングのプロンプトを通じて緩和しにくい、人間のような動機付けの推論を示すことを初めて示唆するものです。
関連論文リスト
- Examining Alignment of Large Language Models through Representative Heuristics: The Case of Political Stereotypes [20.407518082067437]
本研究では,大規模言語モデル(LLM)と人的価値との整合性を検討した。
政治問題に関する実証的な立場からLLMの逸脱に寄与する要因を分析した。
LLMは特定の政党の立場を模倣できるが、人間の調査回答者よりもこれらの立場を誇張することが多い。
論文 参考訳(メタデータ) (2025-01-24T07:24:23Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では,大言語モデル(LLM)におけるパルチザンバイアスが政治的意見や意思決定に与える影響について検討する。
その結果,党派偏見モデルに曝露した参加者は,LLMの偏見と一致した意見を取り入れ,決定を下す可能性が有意に高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Modeling Human Subjectivity in LLMs Using Explicit and Implicit Human Factors in Personas [14.650234624251716]
大規模言語モデル (LLMs) は、人間中心の社会科学タスクでますます使われている。
これらのタスクは非常に主観的であり、環境、態度、信念、生きた経験など人間的要因に依存している。
我々は,LLMを人間的なペルソナで促進する役割について検討し,モデルに特定の人間であるかのように答えるよう求めた。
論文 参考訳(メタデータ) (2024-06-20T16:24:07Z) - Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs [67.51906565969227]
LLMの基本的な推論タスクの実行能力に対するペルソナ代入の意図しない副作用について検討する。
本研究は,5つの社会デコグラフィーグループにまたがる24の推論データセット,4つのLDM,19の多様な個人(アジア人など)について検討した。
論文 参考訳(メタデータ) (2023-11-08T18:52:17Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。