論文の概要: Exploring Causal Effect of Social Bias on Faithfulness Hallucinations in Large Language Models
- arxiv url: http://arxiv.org/abs/2508.07753v1
- Date: Mon, 11 Aug 2025 08:34:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.0119
- Title: Exploring Causal Effect of Social Bias on Faithfulness Hallucinations in Large Language Models
- Title(参考訳): 大規模言語モデルにおけるソーシャルバイアスの幻覚に対する因果関係の探索
- Authors: Zhenliang Zhang, Junzhe Zhang, Xinyu Hu, HuiXuan Zhang, Xiaojun Wan,
- Abstract要約: 大規模言語モデル(LLM)は様々なタスクで顕著な成功を収めたが、忠実な幻覚に弱いままである。
社会的偏見がこれらの幻覚に寄与するかどうかを考察する。
重要な課題は、バイアス状態と幻覚の間の因果関係の分離を複雑化する、コンテキスト内の共同創設者を制御することである。
- 参考スコア(独自算出の注目度): 50.18087419133284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have achieved remarkable success in various tasks, yet they remain vulnerable to faithfulness hallucinations, where the output does not align with the input. In this study, we investigate whether social bias contributes to these hallucinations, a causal relationship that has not been explored. A key challenge is controlling confounders within the context, which complicates the isolation of causality between bias states and hallucinations. To address this, we utilize the Structural Causal Model (SCM) to establish and validate the causality and design bias interventions to control confounders. In addition, we develop the Bias Intervention Dataset (BID), which includes various social biases, enabling precise measurement of causal effects. Experiments on mainstream LLMs reveal that biases are significant causes of faithfulness hallucinations, and the effect of each bias state differs in direction. We further analyze the scope of these causal effects across various models, specifically focusing on unfairness hallucinations, which are primarily targeted by social bias, revealing the subtle yet significant causal effect of bias on hallucination generation.
- Abstract(参考訳): 大規模言語モデル(LLM)は様々なタスクにおいて顕著な成功を収めているが、出力が入力と一致しない忠実な幻覚に弱いままである。
本研究では,これらの幻覚に社会的偏見が寄与するかどうかを検討する。
重要な課題は、バイアス状態と幻覚の間の因果関係の分離を複雑化する、コンテキスト内の共同創設者を制御することである。
これを解決するために、我々は、構造因果モデル(Structure Causal Model, SCM)を用いて、共同設立者を管理するための因果関係と設計バイアスの介入を確立し、検証する。
さらに,様々な社会的バイアスを含むバイアス干渉データセット(BID)を開発し,因果関係の正確な測定を可能にした。
主流のLSMの実験では、バイアスは忠実な幻覚の重大な原因であり、それぞれのバイアス状態の影響は方向によって異なることが示されている。
さらに、これらの因果効果の範囲を様々なモデルで分析し、特に、主に社会的偏見を対象とする不公平な幻覚に焦点を当て、偏見が幻覚生成に与える影響の微妙な因果効果を明らかにした。
関連論文リスト
- A fine-grained look at causal effects in causal spaces [10.99954450966829]
我々は事象のレベルにおける因果効果について研究し、確率論からインスピレーションを得た。
因果効果が存在するかどうかを判定するバイナリ定義をいくつか導入する。
特例として治療効果の共通指標を回復できることが示唆された。
論文 参考訳(メタデータ) (2025-12-11T14:41:18Z) - HACK: Hallucinations Along Certainty and Knowledge Axes [66.66625343090743]
本稿では,2つの軸に沿って幻覚を分類する枠組みを提案する。
内部的に正しい知識を持っているにもかかわらず、モデルが確実に幻覚する幻覚のサブセットを特に特定する。
論文 参考訳(メタデータ) (2025-10-28T09:34:31Z) - Do Large Language Models Show Biases in Causal Learning? Insights from Contingency Judgment [0.1547863211792184]
因果学習は因果推論を行う能力を開発するための認知過程である。
このプロセスは、因果関係の錯覚のような誤りや偏見がちである。
この認知バイアスは多くの社会的問題を解決するために提案されている。
論文 参考訳(メタデータ) (2025-10-15T18:09:00Z) - Review of Hallucination Understanding in Large Language and Vision Models [65.29139004945712]
本稿では,多様なアプリケーションにまたがる画像とテキストの幻覚を特徴付けるフレームワークを提案する。
我々の調査によると、幻覚はデータ分布や遺伝バイアスの予測可能なパターンから生じることが多い。
この調査は、現実世界の生成AIシステムにおける幻覚に対するより堅牢で効果的なソリューションを開発する基盤を提供する。
論文 参考訳(メタデータ) (2025-09-26T09:23:08Z) - Investigating VLM Hallucination from a Cognitive Psychology Perspective: A First Step Toward Interpretation with Intriguing Observations [60.63340688538124]
幻覚は、視覚言語モデル(VLM)で積極的に研究されている長年の問題である。
既存の研究は、幻覚は技術的な制限や梅毒のバイアスによるもので、後者はモデルがユーザの期待に沿う誤った回答を生み出す傾向があることを意味している。
本研究では, VLMの認知バイアスを分類し, サイコフィナンシー, 論理的不整合, 新たに同定された VLM の行動, 権威へのアピールなど, 幻覚へと導く。
論文 参考訳(メタデータ) (2025-07-03T19:03:16Z) - Mitigating Behavioral Hallucination in Multimodal Large Language Models for Sequential Images [6.48620624181578]
SHE(Sequence Hallucination Eradication)は,幻覚を検知し緩和する軽量なフレームワークである。
また,行動幻覚の重症度を定量化する新しい指標(BEACH)を提案する。
論文 参考訳(メタデータ) (2025-06-08T15:08:52Z) - Loki's Dance of Illusions: A Comprehensive Survey of Hallucination in Large Language Models [46.71180299830997]
大型言語モデル(LLM)は、実際に正確に見えるが実際に作られた情報を生成することがある。
これらの幻覚の頻度は、ユーザを誤解させ、判断や判断に影響を及ぼす可能性がある。
金融、法律、医療などの分野では、このような誤報が重大な経済的損失、法的紛争、健康リスクを引き起こしている。
論文 参考訳(メタデータ) (2025-06-06T10:50:08Z) - Why and How LLMs Hallucinate: Connecting the Dots with Subsequence Associations [82.42811602081692]
本稿では,幻覚を体系的に追跡・理解するサブシーケンス・アソシエーション・フレームワークを提案する。
主要な洞察は、支配的な幻覚協会が忠実なものを上回るときに生じる幻覚である。
ランダムな入力コンテキストにおける幻覚の確率を解析することにより因果列を同定するトレースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T06:34:45Z) - Delusions of Large Language Models [62.43923767408462]
大規模言語モデルは、しばしば幻覚として知られる、事実的に間違っているが、もっともらしい出力を生成する。
高信頼幻覚と定義され、不正確な出力を異常に高い信頼性で検出し、緩和することが難しくなる、より惨めな現象であるLSM妄想を識別する。
論文 参考訳(メタデータ) (2025-03-09T17:59:16Z) - Lost in Transcription, Found in Distribution Shift: Demystifying Hallucination in Speech Foundation Models [36.327525062842724]
幻覚は特に医療、法務、航空などの高額な領域に関係している。
本研究では,分布変化やモデルサイズ,モデルアーキテクチャなどの要因が幻覚発生誤差率(HER)にどのように影響するかを検討する。
我々の研究は、ASRモデルの性能を評価するために、WERのような従来の指標とHERを併用することの重要性を強調した。
論文 参考訳(メタデータ) (2025-02-18T01:25:39Z) - Do Large Language Models Show Biases in Causal Learning? [3.0264418764647605]
因果学習は、利用可能な情報に基づいて因果推論を行う能力を開発するための認知過程である。
本研究では,大言語モデル(LLM)が因果錯覚を発生させるかどうかを考察する。
論文 参考訳(メタデータ) (2024-12-13T19:03:48Z) - Knowledge Overshadowing Causes Amalgamated Hallucination in Large Language Models [65.32990889402927]
「我々はこの現象を知識の誇張として造る。」
その結果, 幻覚率の増大は, 不均衡比と支配的条件記述の長さに左右されることがわかった。
本稿では,その発生前に幻覚をキャッチするための信号として,オーバーシェーディング条件を用いることを提案する。
論文 参考訳(メタデータ) (2024-07-10T20:37:42Z) - On Large Language Models' Hallucination with Regard to Known Facts [74.96789694959894]
大規模な言語モデルはファクトイドの質問に答えることに成功したが、幻覚を起こす傾向がある。
正しい解答知識を持つLLMの現象を推論力学の観点から検討する。
我々の研究は、LLMの幻覚が既知の事実について、そしてより重要なのは、幻覚を正確に予測する理由を理解することに光を当てた。
論文 参考訳(メタデータ) (2024-03-29T06:48:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。