論文の概要: Hallucinate Less by Thinking More: Aspect-Based Causal Abstention for Large Language Models
- arxiv url: http://arxiv.org/abs/2511.17170v1
- Date: Fri, 21 Nov 2025 11:42:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:18.995785
- Title: Hallucinate Less by Thinking More: Aspect-Based Causal Abstention for Large Language Models
- Title(参考訳): より考えることで幻覚を減らせる:大規模言語モデルに対するアスペクトベースの因果関係
- Authors: Vy Nguyen, Ziqi Xu, Jeffrey Chan, Estrid He, Feng Xia, Xiuzhen Zhang,
- Abstract要約: LLMの知識の内部の多様性を分析して早期の禁忌を可能にする新しい枠組みであるAspect-Based Causal Abstention (ABCA)を紹介する。
ABCAは、これらの側面で条件付けられた因果効果を推定し、与えられたクエリに関連する知識の信頼性を評価する。
標準ベンチマークの実験では、ABCAは禁忌信頼性を向上し、最先端のパフォーマンスを達成し、禁忌決定の解釈可能性を高めることが示されている。
- 参考スコア(独自算出の注目度): 12.397113118128189
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) often produce fluent but factually incorrect responses, a phenomenon known as hallucination. Abstention, where the model chooses not to answer and instead outputs phrases such as "I don't know", is a common safeguard. However, existing abstention methods typically rely on post-generation signals, such as generation variations or feedback, which limits their ability to prevent unreliable responses in advance. In this paper, we introduce Aspect-Based Causal Abstention (ABCA), a new framework that enables early abstention by analysing the internal diversity of LLM knowledge through causal inference. This diversity reflects the multifaceted nature of parametric knowledge acquired from various sources, representing diverse aspects such as disciplines, legal contexts, or temporal frames. ABCA estimates causal effects conditioned on these aspects to assess the reliability of knowledge relevant to a given query. Based on these estimates, we enable two types of abstention: Type-1, where aspect effects are inconsistent (knowledge conflict), and Type-2, where aspect effects consistently support abstention (knowledge insufficiency). Experiments on standard benchmarks demonstrate that ABCA improves abstention reliability, achieves state-of-the-art performance, and enhances the interpretability of abstention decisions.
- Abstract(参考訳): LLM(Large Language Models)はしばしば、幻覚(幻覚)として知られる、流動的だが事実的に誤った反応を生じる。
モデルが答えないことを選択し、代わりに "I don't know" のようなフレーズを出力する。
しかし、既存の禁忌法は、通常、生成のバリエーションやフィードバックのようなポストジェネレーション後の信号に依存するため、事前に信頼できない応答を防ぐ能力は制限される。
本稿では,LLM知識の内部の多様性を因果推論によって解析することにより早期の禁忌を可能にする新しい枠組みであるAspect-Based Causal Abstention (ABCA)を紹介する。
この多様性は、様々な情報源から得られたパラメトリック知識の多面的な性質を反映しており、規律、法的文脈、時間的枠組みといった様々な側面を表している。
ABCAは、これらの側面で条件付けられた因果効果を推定し、与えられたクエリに関連する知識の信頼性を評価する。
これらの推定に基づいて、アスペクト効果が矛盾する(知識の衝突)Type-1とアスペクト効果が一貫して吸収を支援する(知識の不足)Type-2の2つのタイプの禁忌を可能にする。
標準ベンチマークの実験では、ABCAは禁忌信頼性を向上し、最先端のパフォーマンスを達成し、禁忌決定の解釈可能性を高めることが示されている。
関連論文リスト
- Facts in Stats: Impacts of Pretraining Diversity on Language Model Generalization [33.5861323022684]
本稿では,ジェネリックトークンの統計ストリームと,ソースとターゲットのトークンペアの抽象的な事実ストリームを組み合わせたフレキシブルな合成テストベッドを提案する。
文脈的多様性の増大は分布内分布(ID)の精度を低下させるが、分布外分布(OOD)の一般化に対する影響は文脈的構造に大きく依存する。
論文 参考訳(メタデータ) (2025-10-17T17:58:01Z) - Evaluating Hallucinations in Multimodal LLMs with Spoken Queries under Diverse Acoustic Conditions [10.361060366260729]
音声入力が大規模言語モデルにおける幻覚に与える影響について検討する。
本稿では,RePOPEベンチマークの音声拡張であるRePOPE-Spkについて述べる。
実験結果から, 文章ではなく, クエリが話されるときに, 幻覚がエスカレートすることが明らかとなった。
論文 参考訳(メタデータ) (2025-09-19T07:18:45Z) - Quantifying Self-Awareness of Knowledge in Large Language Models [19.886013407039517]
大きな言語モデルにおける幻覚予測は、しばしば自己認識の兆候として解釈される。
このようなパフォーマンスは、真のモデル側イントロスペクションではなく、質問側ショートカットから生じる可能性がある、と我々は主張する。
モデル側信号の利用を促進させるSCAOを導入する。
論文 参考訳(メタデータ) (2025-09-18T18:29:14Z) - Beyond Accuracy: Rethinking Hallucination and Regulatory Response in Generative AI [7.068082004005692]
生成AIにおける幻覚は、しばしば、実際正しい出力を生成する技術的失敗として扱われる。
本稿では, 規制と評価の枠組みが幻覚の狭い見方をいかに受け継いだのかを批判的に考察する。
論文 参考訳(メタデータ) (2025-09-12T19:41:10Z) - Mitigating Multimodal Hallucinations via Gradient-based Self-Reflection [49.26064449816502]
本研究では,テキスト・視覚バイアスと共起バイアスに対処するために,グラディエントベースのインフルエンス・アウェア制約付きデコーディング(GACD)手法を提案する。
GACDは幻覚を効果的に低減し、MLLM出力の視覚的接地を改善する。
論文 参考訳(メタデータ) (2025-09-03T08:13:52Z) - Estimating Commonsense Plausibility through Semantic Shifts [66.06254418551737]
セマンティックシフトを測定することでコモンセンスの妥当性を定量化する新しい識別フレームワークであるComPaSSを提案する。
2種類の細粒度コモンセンス可視性評価タスクの評価は,ComPaSSが一貫してベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2025-02-19T06:31:06Z) - Covert Bias: The Severity of Social Views' Unalignment in Language Models Towards Implicit and Explicit Opinion [0.40964539027092917]
過度なバイアスシナリオのエッジケースにおけるバイアスモデルを用いて、ビューに対するバイアスの重症度を評価する。
以上の結果から,暗黙的・明示的な意見の識別において,LLM 性能の相違が明らかとなり,反対意見の明示的な意見に対する偏見の傾向が一般的であった。
非整合モデルの直接的な不注意な反応は、決定性のさらなる洗練の必要性を示唆している。
論文 参考訳(メタデータ) (2024-08-15T15:23:00Z) - VALOR-EVAL: Holistic Coverage and Faithfulness Evaluation of Large Vision-Language Models [57.43276586087863]
LVLM(Large Vision-Language Models)は幻覚に悩まされ、このモデルでは可聴音を発生させるが、実際には誤出力を発生させる。
既存のベンチマークはスコープに限られており、主にオブジェクト幻覚に焦点を当てている。
対象,属性,関係を多次元のベンチマークで表現し,連想バイアスに基づいて画像を選択する。
論文 参考訳(メタデータ) (2024-04-22T04:49:22Z) - Unveiling Cross Modality Bias in Visual Question Answering: A Causal
View with Possible Worlds VQA [111.41719652451701]
まず、言語と視覚のバイアスを同時に引き起こす相反する効果をモデル化する。
次に、この効果の影響を除去するための反実的推論を提案する。
提案手法は,VQA-CP v2データセットの最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-31T09:02:58Z) - Visual Perturbation-aware Collaborative Learning for Overcoming the
Language Prior Problem [60.0878532426877]
本稿では,視覚的摂動校正の観点から,新しい協調学習手法を提案する。
具体的には、異なる摂動範囲で2種類のキュレートされた画像を構築するための視覚コントローラを考案する。
2つの診断VQA-CPベンチマークデータセットの実験結果は、その効果を明らかに示している。
論文 参考訳(メタデータ) (2022-07-24T23:50:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。