論文の概要: Persona-Assigned Large Language Models Exhibit Human-Like Motivated Reasoning
- arxiv url: http://arxiv.org/abs/2506.20020v1
- Date: Tue, 24 Jun 2025 21:35:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.539227
- Title: Persona-Assigned Large Language Models Exhibit Human-Like Motivated Reasoning
- Title(参考訳): パーソナ指定大言語モデルによる人間ライクな動機付け
- Authors: Saloni Dash, Amélie Reymond, Emma S. Spiro, Aylin Caliskan,
- Abstract要約: 人間における推論は、アイデンティティ保護のような根底にあるモチベーションのためにバイアスを起こしやすい。
本研究では,4つの政治的・社会的な属性に8つのペルソナを割り当てることによって,大きな言語モデルにおける動機づけが引き起こされるかどうかを検討する。
- 参考スコア(独自算出の注目度): 5.697110454224871
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reasoning in humans is prone to biases due to underlying motivations like identity protection, that undermine rational decision-making and judgment. This motivated reasoning at a collective level can be detrimental to society when debating critical issues such as human-driven climate change or vaccine safety, and can further aggravate political polarization. Prior studies have reported that large language models (LLMs) are also susceptible to human-like cognitive biases, however, the extent to which LLMs selectively reason toward identity-congruent conclusions remains largely unexplored. Here, we investigate whether assigning 8 personas across 4 political and socio-demographic attributes induces motivated reasoning in LLMs. Testing 8 LLMs (open source and proprietary) across two reasoning tasks from human-subject studies -- veracity discernment of misinformation headlines and evaluation of numeric scientific evidence -- we find that persona-assigned LLMs have up to 9% reduced veracity discernment relative to models without personas. Political personas specifically, are up to 90% more likely to correctly evaluate scientific evidence on gun control when the ground truth is congruent with their induced political identity. Prompt-based debiasing methods are largely ineffective at mitigating these effects. Taken together, our empirical findings are the first to suggest that persona-assigned LLMs exhibit human-like motivated reasoning that is hard to mitigate through conventional debiasing prompts -- raising concerns of exacerbating identity-congruent reasoning in both LLMs and humans.
- Abstract(参考訳): 人間における推論は、合理的な意思決定や判断を損なうアイデンティティ保護のような基本的な動機によってバイアスを起こしやすい。
この集団レベルでの動機付けられた推論は、人間主導の気候変動やワクチンの安全性といった重要な問題を議論する際に社会に有害であり、政治的分極をさらに悪化させる可能性がある。
以前の研究では、大きな言語モデル(LLM)も人間のような認知バイアスの影響を受けやすいと報告されているが、LLMがアイデンティティと矛盾する結論を選択的に導く程度は、まだ明らかにされていない。
ここでは,4つの政治的・社会的な属性に8つのペルソナを割り当てることが,LLMにおける動機付け的推論を誘導するか否かを検討する。
8個のLSM(オープンソースとプロプライエタリ)を、人間の対象とする研究から得られた2つの推論タスク(誤情報見出しの正確さの識別と数値的な科学的証拠の評価)でテストした結果、ペルソナに割り当てられたLSMは、ペルソナのないモデルと比較して最大9%の精度の識別が減少していることが判明した。
政治的ペルソナは、銃規制に関する科学的証拠を正しく評価する可能性が最大90%高い。
プロンプトに基づく脱バイアス法は、これらの効果を緩和するのにほとんど効果がない。
私たちの経験的発見は、ペルソナに割り当てられたLLMが、従来のデビアシングのプロンプトを通じて緩和しにくい、人間のような動機付けの推論を示すことを初めて示唆するものです。
関連論文リスト
- Examining Alignment of Large Language Models through Representative Heuristics: The Case of Political Stereotypes [20.407518082067437]
本研究では,大規模言語モデル(LLM)と人的価値との整合性を検討した。
政治問題に関する実証的な立場からLLMの逸脱に寄与する要因を分析した。
LLMは特定の政党の立場を模倣できるが、人間の調査回答者よりもこれらの立場を誇張することが多い。
論文 参考訳(メタデータ) (2025-01-24T07:24:23Z) - Belief in the Machine: Investigating Epistemological Blind Spots of Language Models [51.63547465454027]
言語モデル(LM)は、医療、法律、ジャーナリズムといった分野において、信頼できる意思決定に不可欠である。
本研究は,新しいデータセットであるKaBLEを用いて,GPT-4,Claude-3,Llama-3を含む現代のLMの能力を体系的に評価する。
まず、LMは事実シナリオで86%の精度を達成するが、その性能は偽シナリオで著しく低下する。
第二に、特にこれらの信念が事実データと矛盾する場合、LMは個人的信念を認識し、肯定するのに苦労する。
論文 参考訳(メタデータ) (2024-10-28T16:38:20Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では,大言語モデル(LLM)におけるパルチザンバイアスが政治的意見や意思決定に与える影響について検討する。
その結果,党派偏見モデルに曝露した参加者は,LLMの偏見と一致した意見を取り入れ,決定を下す可能性が有意に高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Investigating Context Effects in Similarity Judgements in Large Language Models [6.421776078858197]
大規模言語モデル(LLM)は、自然言語テキストの理解と生成におけるAIモデルの能力に革命をもたらした。
命令バイアスによる人的判断とLCMのアライメントに関する調査が進行中である。
論文 参考訳(メタデータ) (2024-08-20T10:26:02Z) - Modeling Human Subjectivity in LLMs Using Explicit and Implicit Human Factors in Personas [14.650234624251716]
大規模言語モデル (LLMs) は、人間中心の社会科学タスクでますます使われている。
これらのタスクは非常に主観的であり、環境、態度、信念、生きた経験など人間的要因に依存している。
我々は,LLMを人間的なペルソナで促進する役割について検討し,モデルに特定の人間であるかのように答えるよう求めた。
論文 参考訳(メタデータ) (2024-06-20T16:24:07Z) - Can a Hallucinating Model help in Reducing Human "Hallucination"? [2.3633885460047774]
本研究では,大言語モデル(LLMs)が,一般的な論理的落とし穴を検出する上で,平均的な人間をビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビ
本研究では,LLMを誤認識に対処するための手法を提案し,説得の心理的モデルに基づく。
論文 参考訳(メタデータ) (2024-05-01T20:10:44Z) - Large Language Models are as persuasive as humans, but how? About the cognitive effort and moral-emotional language of LLM arguments [0.0]
大型言語モデル(LLM)はすでに人間と同じくらい説得力がある。
本稿では, LLMの説得戦略について, 人為的議論と比較し検討する。
論文 参考訳(メタデータ) (2024-04-14T19:01:20Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs [67.51906565969227]
LLMの基本的な推論タスクの実行能力に対するペルソナ代入の意図しない副作用について検討する。
本研究は,5つの社会デコグラフィーグループにまたがる24の推論データセット,4つのLDM,19の多様な個人(アジア人など)について検討した。
論文 参考訳(メタデータ) (2023-11-08T18:52:17Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。