論文の概要: HART: Data-Driven Hallucination Attribution and Evidence-Based Tracing for Large Language Models
- arxiv url: http://arxiv.org/abs/2603.05828v1
- Date: Fri, 06 Mar 2026 02:23:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:44.892089
- Title: HART: Data-Driven Hallucination Attribution and Evidence-Based Tracing for Large Language Models
- Title(参考訳): HART: 大規模言語モデルのためのデータ駆動型幻覚属性とエビデンスベースのトレース
- Authors: Shize Liang, Hongzhi Wang,
- Abstract要約: 我々は,大規模言語モデルに対する微細な幻覚の帰属とエビデンス検索の枠組みであるHARTを提案する。
HARTは幻覚追跡を、局所化、メカニズム帰属、エビデンス検索、因果トレースの4段階からなる構造化モデリングタスクとして定式化する。
この定式化に基づいて,幻覚追跡に適した最初の構造化データセットを開発した。
- 参考スコア(独自算出の注目度): 4.211691393530721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated remarkable performance in text generation and knowledge-intensive question answering. Nevertheless, they are prone to producing hallucinated content, which severely undermines their reliability in high-stakes application domains. Existing hallucination attribution approaches, based on either external knowledge retrieval or internal model mechanisms, primarily focus on semantic similarity matching or representation-level discrimination. As a result, they have difficulty establishing structured correspondences at the span level between hallucination types, underlying error generation mechanisms, and external factual evidence, thereby limiting the interpretability of hallucinated fragments and the traceability of supporting or opposing evidence. To address these limitations, we propose HART, a fine-grained hallucination attribution and evidence retrieval framework for large language models. HART formalizes hallucination tracing as a structured modeling task comprising four stages: span localization, mechanism attribution, evidence retrieval, and causal tracing. Based upon this formulation, we develop the first structured dataset tailored for hallucination tracing, in which hallucination types, error mechanisms, and sets of counterfactual evidence are jointly annotated to enable causal-level interpretability evaluation. Experimental results on the proposed dataset demonstrate that HART substantially outperforms strong retrieval baselines, including BM25 and DPR, validating the effectiveness and generalization capability of the proposed tracing paradigm for hallucination analysis and evidence alignment.
- Abstract(参考訳): 大規模言語モデル(LLM)は、テキスト生成と知識集約型質問応答において顕著な性能を示した。
それでも、幻覚物質を生産する傾向にあり、高いアプリケーションドメインの信頼性を著しく損なう。
既存の幻覚帰属のアプローチは、外部知識検索または内部モデル機構に基づいており、主に意味的類似性マッチングや表現レベルの識別に焦点を当てている。
その結果、幻覚のタイプ、基礎となるエラー発生機構、および外部の事実証拠の間のスパンレベルにおける構造的対応の確立が困難となり、それによって幻覚化された断片の解釈可能性や、支持または反対の証拠のトレーサビリティが制限される。
これらの制約に対処するために,大規模言語モデルのための微細な幻覚属性とエビデンス検索フレームワークであるHARTを提案する。
HARTは幻覚追跡を、局所化、メカニズム帰属、エビデンス検索、因果トレースの4段階からなる構造化モデリングタスクとして定式化する。
この定式化に基づき、幻覚追跡に適した最初の構造化データセットを開発し、幻覚の種類、エラー機構、および反事実証拠のセットを共同で注釈付けし、因果レベルでの解釈可能性の評価を可能にする。
実験の結果,HARTはBM25やDPRなどの強力な検索ベースラインを大幅に上回り,幻覚解析と証拠アライメントのための提案手法の有効性と一般化能力の検証を行った。
関連論文リスト
- HalluGuard: Demystifying Data-Driven and Reasoning-Driven Hallucinations in LLMs [20.59139155257836]
データ駆動および推論駆動コンポーネントに幻覚リスクを分解する統合理論フレームワークを導入する。
本稿では,NTKをベースとしたHaluGuardについて紹介する。このスコアはNTKのジオメトリとキャプチャー表現を利用して,データ駆動および推論駆動の幻覚を共同で同定する。
論文 参考訳(メタデータ) (2026-01-26T18:23:09Z) - A novel hallucination classification framework [0.0]
本研究では,大規模言語モデル(LLM)における幻覚の自動検出手法を提案する。
提案手法は,素早い工学的手法による系統分類と多様な幻覚の再現制御に基づく。
論文 参考訳(メタデータ) (2025-10-06T09:54:20Z) - Review of Hallucination Understanding in Large Language and Vision Models [65.29139004945712]
本稿では,多様なアプリケーションにまたがる画像とテキストの幻覚を特徴付けるフレームワークを提案する。
我々の調査によると、幻覚はデータ分布や遺伝バイアスの予測可能なパターンから生じることが多い。
この調査は、現実世界の生成AIシステムにおける幻覚に対するより堅牢で効果的なソリューションを開発する基盤を提供する。
論文 参考訳(メタデータ) (2025-09-26T09:23:08Z) - SHALE: A Scalable Benchmark for Fine-grained Hallucination Evaluation in LVLMs [52.03164192840023]
LVLM(Large Vision-Language Models)は、いまだ幻覚に悩まされている。
本稿では,スケーラブルで制御可能で多様な評価データを生成する自動データ構築パイプラインを提案する。
我々は,忠実度と事実性幻覚の両方を評価するためのベンチマークであるSHALEを構築した。
論文 参考訳(メタデータ) (2025-08-13T07:58:01Z) - A comprehensive taxonomy of hallucinations in Large Language Models [0.0]
大型言語モデル (LLM) は自然言語処理に革命をもたらしたが、幻覚の確率は依然として重要な課題である。
本報告では, LLM幻覚の包括的分類を, 形式的定義と理論的枠組みから開始する。
根本原因を分析し、それらをデータ関連問題、モデル関連要因、およびプロンプト関連の影響に分類する。
論文 参考訳(メタデータ) (2025-08-03T14:37:16Z) - Towards Long Context Hallucination Detection [49.195854802543714]
大規模言語モデル(LLM)は、様々なタスクで顕著なパフォーマンスを示している。
それらは文脈の幻覚に傾向があり、与えられた文脈に不一致または矛盾した情報を生成する。
本稿では,BERTのような事前学習したエンコーダモデルを用いて,長期のコンテキストを処理し,文脈の幻覚を効果的に検出するアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-04-28T03:47:05Z) - Why and How LLMs Hallucinate: Connecting the Dots with Subsequence Associations [82.42811602081692]
本稿では,幻覚を体系的に追跡・理解するサブシーケンス・アソシエーション・フレームワークを提案する。
主要な洞察は、支配的な幻覚協会が忠実なものを上回るときに生じる幻覚である。
ランダムな入力コンテキストにおける幻覚の確率を解析することにより因果列を同定するトレースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T06:34:45Z) - Prescribing the Right Remedy: Mitigating Hallucinations in Large Vision-Language Models via Targeted Instruction Tuning [13.805780090705252]
そこで本研究では,異なるモデルの幻覚特異性に合わせたDFTGという命令データ生成フレームワークを提案する。
幻覚ベンチマークによる実験結果から,本手法で生成した目標命令データの方が,従来よりも幻覚の緩和に有効であることが示唆された。
論文 参考訳(メタデータ) (2024-04-16T07:14:32Z) - AutoHall: Automated Hallucination Dataset Generation for Large Language Models [56.92068213969036]
本稿では,AutoHallと呼ばれる既存のファクトチェックデータセットに基づいて,モデル固有の幻覚データセットを自動的に構築する手法を提案する。
また,自己コントラディションに基づくゼロリソース・ブラックボックス幻覚検出手法を提案する。
論文 参考訳(メタデータ) (2023-09-30T05:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。