論文の概要: Exploring Causal Effect of Social Bias on Faithfulness Hallucinations in Large Language Models
- arxiv url: http://arxiv.org/abs/2508.07753v1
- Date: Mon, 11 Aug 2025 08:34:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.0119
- Title: Exploring Causal Effect of Social Bias on Faithfulness Hallucinations in Large Language Models
- Title(参考訳): 大規模言語モデルにおけるソーシャルバイアスの幻覚に対する因果関係の探索
- Authors: Zhenliang Zhang, Junzhe Zhang, Xinyu Hu, HuiXuan Zhang, Xiaojun Wan,
- Abstract要約: 大規模言語モデル(LLM)は様々なタスクで顕著な成功を収めたが、忠実な幻覚に弱いままである。
社会的偏見がこれらの幻覚に寄与するかどうかを考察する。
重要な課題は、バイアス状態と幻覚の間の因果関係の分離を複雑化する、コンテキスト内の共同創設者を制御することである。
- 参考スコア(独自算出の注目度): 50.18087419133284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have achieved remarkable success in various tasks, yet they remain vulnerable to faithfulness hallucinations, where the output does not align with the input. In this study, we investigate whether social bias contributes to these hallucinations, a causal relationship that has not been explored. A key challenge is controlling confounders within the context, which complicates the isolation of causality between bias states and hallucinations. To address this, we utilize the Structural Causal Model (SCM) to establish and validate the causality and design bias interventions to control confounders. In addition, we develop the Bias Intervention Dataset (BID), which includes various social biases, enabling precise measurement of causal effects. Experiments on mainstream LLMs reveal that biases are significant causes of faithfulness hallucinations, and the effect of each bias state differs in direction. We further analyze the scope of these causal effects across various models, specifically focusing on unfairness hallucinations, which are primarily targeted by social bias, revealing the subtle yet significant causal effect of bias on hallucination generation.
- Abstract(参考訳): 大規模言語モデル(LLM)は様々なタスクにおいて顕著な成功を収めているが、出力が入力と一致しない忠実な幻覚に弱いままである。
本研究では,これらの幻覚に社会的偏見が寄与するかどうかを検討する。
重要な課題は、バイアス状態と幻覚の間の因果関係の分離を複雑化する、コンテキスト内の共同創設者を制御することである。
これを解決するために、我々は、構造因果モデル(Structure Causal Model, SCM)を用いて、共同設立者を管理するための因果関係と設計バイアスの介入を確立し、検証する。
さらに,様々な社会的バイアスを含むバイアス干渉データセット(BID)を開発し,因果関係の正確な測定を可能にした。
主流のLSMの実験では、バイアスは忠実な幻覚の重大な原因であり、それぞれのバイアス状態の影響は方向によって異なることが示されている。
さらに、これらの因果効果の範囲を様々なモデルで分析し、特に、主に社会的偏見を対象とする不公平な幻覚に焦点を当て、偏見が幻覚生成に与える影響の微妙な因果効果を明らかにした。
関連論文リスト
- Mitigating Behavioral Hallucination in Multimodal Large Language Models for Sequential Images [6.48620624181578]
SHE(Sequence Hallucination Eradication)は,幻覚を検知し緩和する軽量なフレームワークである。
また,行動幻覚の重症度を定量化する新しい指標(BEACH)を提案する。
論文 参考訳(メタデータ) (2025-06-08T15:08:52Z) - Loki's Dance of Illusions: A Comprehensive Survey of Hallucination in Large Language Models [46.71180299830997]
大型言語モデル(LLM)は、実際に正確に見えるが実際に作られた情報を生成することがある。
これらの幻覚の頻度は、ユーザを誤解させ、判断や判断に影響を及ぼす可能性がある。
金融、法律、医療などの分野では、このような誤報が重大な経済的損失、法的紛争、健康リスクを引き起こしている。
論文 参考訳(メタデータ) (2025-06-06T10:50:08Z) - Why and How LLMs Hallucinate: Connecting the Dots with Subsequence Associations [82.42811602081692]
本稿では,幻覚を体系的に追跡・理解するサブシーケンス・アソシエーション・フレームワークを提案する。
主要な洞察は、支配的な幻覚協会が忠実なものを上回るときに生じる幻覚である。
ランダムな入力コンテキストにおける幻覚の確率を解析することにより因果列を同定するトレースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T06:34:45Z) - Delusions of Large Language Models [62.43923767408462]
大規模言語モデルは、しばしば幻覚として知られる、事実的に間違っているが、もっともらしい出力を生成する。
高信頼幻覚と定義され、不正確な出力を異常に高い信頼性で検出し、緩和することが難しくなる、より惨めな現象であるLSM妄想を識別する。
論文 参考訳(メタデータ) (2025-03-09T17:59:16Z) - Lost in Transcription, Found in Distribution Shift: Demystifying Hallucination in Speech Foundation Models [36.327525062842724]
幻覚は特に医療、法務、航空などの高額な領域に関係している。
本研究では,分布変化やモデルサイズ,モデルアーキテクチャなどの要因が幻覚発生誤差率(HER)にどのように影響するかを検討する。
我々の研究は、ASRモデルの性能を評価するために、WERのような従来の指標とHERを併用することの重要性を強調した。
論文 参考訳(メタデータ) (2025-02-18T01:25:39Z) - Do Large Language Models Show Biases in Causal Learning? [3.0264418764647605]
因果学習は、利用可能な情報に基づいて因果推論を行う能力を開発するための認知過程である。
本研究では,大言語モデル(LLM)が因果錯覚を発生させるかどうかを考察する。
論文 参考訳(メタデータ) (2024-12-13T19:03:48Z) - Knowledge Overshadowing Causes Amalgamated Hallucination in Large Language Models [65.32990889402927]
「我々はこの現象を知識の誇張として造る。」
その結果, 幻覚率の増大は, 不均衡比と支配的条件記述の長さに左右されることがわかった。
本稿では,その発生前に幻覚をキャッチするための信号として,オーバーシェーディング条件を用いることを提案する。
論文 参考訳(メタデータ) (2024-07-10T20:37:42Z) - On Large Language Models' Hallucination with Regard to Known Facts [74.96789694959894]
大規模な言語モデルはファクトイドの質問に答えることに成功したが、幻覚を起こす傾向がある。
正しい解答知識を持つLLMの現象を推論力学の観点から検討する。
我々の研究は、LLMの幻覚が既知の事実について、そしてより重要なのは、幻覚を正確に予測する理由を理解することに光を当てた。
論文 参考訳(メタデータ) (2024-03-29T06:48:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。