論文の概要: Measuring the Impact of Lexical Training Data Coverage on Hallucination Detection in Large Language Models
- arxiv url: http://arxiv.org/abs/2511.17946v1
- Date: Sat, 22 Nov 2025 06:59:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.533605
- Title: Measuring the Impact of Lexical Training Data Coverage on Hallucination Detection in Large Language Models
- Title(参考訳): 語彙学習データカバレッジが大規模言語モデルにおける幻覚検出に及ぼす影響の測定
- Authors: Shuo Zhang, Fabrizio Gotti, Fengran Mo, Jian-Yun Nie,
- Abstract要約: 大規模言語モデル(LLM)における幻覚は、特にオープンドメインの質問応答において、根本的な課題である。
これまでの研究は、トークンレベルのエントロピーや生成一貫性といったモデル内部信号による幻覚の検出を試みた。
本研究では,データカバレッジ自体が検出信号として機能するかどうかを検討する。
- 参考スコア(独自算出の注目度): 26.89705770151822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hallucination in large language models (LLMs) is a fundamental challenge, particularly in open-domain question answering. Prior work attempts to detect hallucination with model-internal signals such as token-level entropy or generation consistency, while the connection between pretraining data exposure and hallucination is underexplored. Existing studies show that LLMs underperform on long-tail knowledge, i.e., the accuracy of the generated answer drops for the ground-truth entities that are rare in pretraining. However, examining whether data coverage itself can serve as a detection signal is overlooked. We propose a complementary question: Does lexical training-data coverage of the question and/or generated answer provide additional signal for hallucination detection? To investigate this, we construct scalable suffix arrays over RedPajama's 1.3-trillion-token pretraining corpus to retrieve $n$-gram statistics for both prompts and model generations. We evaluate their effectiveness for hallucination detection across three QA benchmarks. Our observations show that while occurrence-based features are weak predictors when used alone, they yield modest gains when combined with log-probabilities, particularly on datasets with higher intrinsic model uncertainty. These findings suggest that lexical coverage features provide a complementary signal for hallucination detection. All code and suffix-array infrastructure are provided at https://github.com/WWWonderer/ostd.
- Abstract(参考訳): 大規模言語モデル(LLM)における幻覚は、特にオープンドメインの質問応答において、根本的な課題である。
先行研究では、トークンレベルのエントロピーや生成一貫性などのモデル内部信号による幻覚の検出を試みたが、事前学習されたデータ露光と幻覚との接続は過小評価されている。
既存の研究では、LLMは長い尾の知識、すなわち、事前訓練で稀な接地的実体に対して生成された答えの正確さが不足していることが示されている。
しかし,データカバレッジ自体が検出信号として機能するかどうかを見落としている。
補足的質問を提案する: 質問と/または生成された回答の語彙的データカバレッジは幻覚検出のための追加の信号を提供するか?
そこで我々はRedPajamaの1.3トリリオントーケン事前学習コーパス上にスケーラブルな接尾辞アレイを構築し,プロンプトとモデル生成の両方について$n$-gramの統計値を取得する。
3つのQAベンチマークで幻覚検出の有効性を評価した。
観測の結果, 発生に基づく特徴は単独で使用すると弱いが, 対数確率と組み合わせた場合, 特に本質的モデルの不確実性の高いデータセットでは, 緩やかな利得が得られることがわかった。
これらの結果から,語彙的カバレッジは幻覚検出の補完的なシグナルとなることが示唆された。
すべてのコードとsuffix-arrayインフラストラクチャはhttps://github.com/WWWonderer/ostd.comで提供されている。
関連論文リスト
- Grounding or Guessing? Visual Signals for Detecting Hallucinations in Sign Language Translation [13.03365340564181]
幻覚は視覚言語モデルの重大な欠陥であり、手話翻訳において特に重要である。
本稿では,デコーダの視覚情報利用量を定量化するトークンレベルの信頼性尺度を提案する。
以上の結果から、信頼性は幻覚率を予測し、データセットやアーキテクチャをまたいで一般化し、視覚的劣化の下で低下することが示された。
論文 参考訳(メタデータ) (2025-10-21T09:13:46Z) - HalLoc: Token-level Localization of Hallucinations for Vision Language Models [36.12465376767014]
幻覚は、大きな視覚言語モデルの信頼性に重大な課題をもたらす。
HalLocは、効率的で確率的な幻覚検出のために設計されたデータセットである。
論文 参考訳(メタデータ) (2025-06-12T01:50:35Z) - Why and How LLMs Hallucinate: Connecting the Dots with Subsequence Associations [82.42811602081692]
本稿では,幻覚を体系的に追跡・理解するサブシーケンス・アソシエーション・フレームワークを提案する。
主要な洞察は、支配的な幻覚協会が忠実なものを上回るときに生じる幻覚である。
ランダムな入力コンテキストにおける幻覚の確率を解析することにより因果列を同定するトレースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T06:34:45Z) - Lookback Lens: Detecting and Mitigating Contextual Hallucinations in Large Language Models Using Only Attention Maps [48.58310785625051]
大型言語モデル(LLM)は詳細を幻覚し、根拠のない回答で応答することができる。
本稿では,このような文脈的幻覚を検出するための簡単なアプローチについて述べる。
論文 参考訳(メタデータ) (2024-07-09T17:44:34Z) - HypoTermQA: Hypothetical Terms Dataset for Benchmarking Hallucination
Tendency of LLMs [0.0]
幻覚は、大規模言語モデル(LLM)の信頼性と整合性に重大な課題をもたらす
本稿では,LLMの幻覚傾向のベンチマークと効率的な幻覚検出を組み合わせた,スケーラブルな自動フレームワークを提案する。
フレームワークはドメインに依存しないため、任意のドメインでのベンチマーク作成や評価に任意の言語モデルを使用することができる。
論文 参考訳(メタデータ) (2024-02-25T22:23:37Z) - AutoHall: Automated Hallucination Dataset Generation for Large Language Models [56.92068213969036]
本稿では,AutoHallと呼ばれる既存のファクトチェックデータセットに基づいて,モデル固有の幻覚データセットを自動的に構築する手法を提案する。
また,自己コントラディションに基づくゼロリソース・ブラックボックス幻覚検出手法を提案する。
論文 参考訳(メタデータ) (2023-09-30T05:20:02Z) - Detecting Hallucinated Content in Conditional Neural Sequence Generation [165.68948078624499]
出力シーケンスの各トークンが(入力に含まれていない)幻覚化されているかどうかを予測するタスクを提案する。
また、合成データに微調整された事前学習言語モデルを用いて幻覚を検出する方法についても紹介する。
論文 参考訳(メタデータ) (2020-11-05T00:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。