論文の概要: Investigating the Effects of Cognitive Biases in Prompts on Large Language Model Outputs
- arxiv url: http://arxiv.org/abs/2506.12338v1
- Date: Sat, 14 Jun 2025 04:18:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.888871
- Title: Investigating the Effects of Cognitive Biases in Prompts on Large Language Model Outputs
- Title(参考訳): プロンプトにおける認知バイアスが大規模言語モデル出力に及ぼす影響の検討
- Authors: Yan Sun, Stanley Kok,
- Abstract要約: 本稿では,認知バイアスがLarge Language Models(LLM)出力に及ぼす影響について検討する。
確認や可用性バイアスなどの認知バイアスは、プロンプトを通じてユーザーの入力を歪ませる。
- 参考スコア(独自算出の注目度): 3.7302076138352205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the influence of cognitive biases on Large Language Models (LLMs) outputs. Cognitive biases, such as confirmation and availability biases, can distort user inputs through prompts, potentially leading to unfaithful and misleading outputs from LLMs. Using a systematic framework, our study introduces various cognitive biases into prompts and assesses their impact on LLM accuracy across multiple benchmark datasets, including general and financial Q&A scenarios. The results demonstrate that even subtle biases can significantly alter LLM answer choices, highlighting a critical need for bias-aware prompt design and mitigation strategy. Additionally, our attention weight analysis highlights how these biases can alter the internal decision-making processes of LLMs, affecting the attention distribution in ways that are associated with output inaccuracies. This research has implications for Al developers and users in enhancing the robustness and reliability of Al applications in diverse domains.
- Abstract(参考訳): 本稿では,認知バイアスがLarge Language Models(LLM)出力に及ぼす影響について検討する。
確認や可用性バイアスなどの認知バイアスは、ユーザの入力をプロンプトによって歪ませる可能性があるため、LLMからの不信と誤解を招く可能性がある。
組織的な枠組みを用いて,様々な認知バイアスをプロンプトに導入し,一般的なQ&Aシナリオや財務的なQ&Aシナリオを含む,複数のベンチマークデータセットにわたるLLM精度への影響を評価する。
その結果,微妙な偏見さえも LLM の回答選択を著しく変えることができ,バイアス対応のプロンプト設計と緩和戦略に対する重要なニーズを浮き彫りにしている。
さらに,これらの偏差がLCMの内部決定過程をどのように変化させるかに注目し,出力不正確な方法での注意分布に影響を与えることを示した。
この研究は、さまざまなドメインにおけるAlアプリケーションの堅牢性と信頼性を高める上で、Al開発者やユーザにとって意味がある。
関連論文リスト
- Cognitive Debiasing Large Language Models for Decision-Making [71.2409973056137]
大規模言語モデル(LLM)は意思決定アプリケーションをサポートする可能性を示している。
我々は,自己適応型認知脱バイアス(SACD)という認知脱バイアス手法を提案する。
我々の手法は、3つの逐次的なステップ – バイアス決定、バイアス分析、認知バイアス ― に従うことで、プロンプトにおける潜在的な認知バイアスを反復的に緩和する。
論文 参考訳(メタデータ) (2025-04-05T11:23:05Z) - Investigating the Impact of LLM Personality on Cognitive Bias Manifestation in Automated Decision-Making Tasks [4.65004369765875]
パーソナリティ特性は、バイアスの増幅または減少において重要な役割を果たす。
良心と積極性は一般に偏見緩和戦略の有効性を高める可能性がある。
論文 参考訳(メタデータ) (2025-02-20T03:15:54Z) - Justice or Prejudice? Quantifying Biases in LLM-as-a-Judge [84.34545223897578]
多くの領域で優れているにもかかわらず、潜在的な問題は未解決のままであり、その信頼性と実用性の範囲を損なう。
提案手法は, LLM-as-a-Judgeにおける各種類のバイアスを定量化し, 解析する自動バイアス定量化フレームワークである。
当社の作業は、これらの問題に対処するステークホルダの必要性を強調し、LLM-as-a-Judgeアプリケーションで注意を喚起します。
論文 参考訳(メタデータ) (2024-10-03T17:53:30Z) - Balancing Rigor and Utility: Mitigating Cognitive Biases in Large Language Models for Multiple-Choice Questions [0.46873264197900916]
認知バイアスが合理的な偏差やショートカットによって意思決定効率を高めることを示す。
モデレーションと禁忌オプションを導入することで、エラー率を減らし、意思決定精度を改善し、意思決定率を最適化する。
このアプローチは、認知バイアスを活用する新しい方法を提供し、大きな言語モデルの実用性を改善する。
論文 参考訳(メタデータ) (2024-06-16T16:25:22Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は意思決定タスクを自動化するために使用される。
本稿では,LPMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを評価する。
さまざまな因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成します。
これらのベンチマークにより、LLMが事実を記憶したり、他のショートカットを見つけたりすることで、変化を正確に予測する能力を切り離すことができます。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - Towards detecting unanticipated bias in Large Language Models [1.4589372436314496]
LLM(Large Language Models)は、従来の機械学習システムと同様の公平性問題を示す。
本研究は、トレーニングデータにおけるバイアスの分析と定量化と、それらのモデルの決定に対する影響に焦点を当てる。
論文 参考訳(メタデータ) (2024-04-03T11:25:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。