論文の概要: Token Level Hallucination Detection via Variance in Language Models
- arxiv url: http://arxiv.org/abs/2507.04137v1
- Date: Sat, 05 Jul 2025 19:20:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.036131
- Title: Token Level Hallucination Detection via Variance in Language Models
- Title(参考訳): 言語モデルにおける変数によるトークンレベルの幻覚検出
- Authors: Keshav Kumar,
- Abstract要約: 大規模言語モデル(LLM)は、様々なタスクにまたがる印象的な生成能力を示したが、幻覚に弱いままである。
複数世代にわたるトークンログ確率のばらつきを利用した,参照不要なトークンレベルの幻覚検出フレームワークを提案する。
我々のアプローチは、モデルに依存しず、解釈可能であり、リアルタイムまたはポストホック分析に適している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have demonstrated impressive generative capabilities across diverse tasks but remain susceptible to hallucinations, confidently generated yet factually incorrect outputs. We introduce a reference-free, token-level hallucination detection framework that leverages the variance in token log-probabilities across multiple stochastic generations. Unlike prior methods that require ground-truth references or sentence-level verification, our approach is model-agnostic, interpretable, and suited for real-time or post-hoc analysis. We evaluate our method on unanswerable question prompts from the SQuAD v2 dataset and benchmark across three autoregressive models of varying scales: GPT-Neo 125M, Falcon 1B, and Mistral 7B. Through both quantitative metrics and visual diagnostics, we show that token-level variance reliably highlights instability in model outputs and correlates with hallucination patterns. Our framework is lightweight, reproducible, and adaptable to multiple domains, offering a valuable diagnostic tool for analyzing generative reliability in LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々なタスクにまたがる印象的な生成能力を示してきたが、幻覚の影響を受けにくい。
複数の確率的世代にまたがるトークンログ確率のばらつきを利用した,参照不要なトークンレベルの幻覚検出フレームワークを提案する。
提案手法は, モデルに依存しない, 解釈可能で, リアルタイム・ポストホック解析に適した手法である。
GPT-Neo 125M, Falcon 1B, およびMistral 7Bの3種類の自己回帰モデルを対象に, SQuAD v2データセットからの不可解な問合せプロンプトの評価を行った。
定量的メトリクスと視覚診断の両方を通して、トークンレベルの分散がモデル出力の不安定性を確実に強調し、幻覚パターンと相関することを示す。
我々のフレームワークは軽量で再現性があり、複数のドメインに適用可能であり、LLMの生成信頼性を解析するための貴重な診断ツールを提供する。
関連論文リスト
- VALOR-EVAL: Holistic Coverage and Faithfulness Evaluation of Large Vision-Language Models [57.43276586087863]
LVLM(Large Vision-Language Models)は幻覚に悩まされ、このモデルでは可聴音を発生させるが、実際には誤出力を発生させる。
既存のベンチマークはスコープに限られており、主にオブジェクト幻覚に焦点を当てている。
対象,属性,関係を多次元のベンチマークで表現し,連想バイアスに基づいて画像を選択する。
論文 参考訳(メタデータ) (2024-04-22T04:49:22Z) - SAC3: Reliable Hallucination Detection in Black-Box Language Models via
Semantic-aware Cross-check Consistency [11.056236593022978]
幻覚検出は現代言語モデル(LM)の信頼性を理解するための重要なステップである
我々は,LMの自己整合性に基づく既存の検出手法を再検討し,(1)質問レベルと(2)モデルレベルの2種類の幻覚を明らかにする。
本稿では, 自己整合性チェックの原理に基づいて, セマンティック・アウェア・クロスチェック整合性(SAC3)という, サンプリングに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-03T06:32:43Z) - AutoHall: Automated Hallucination Dataset Generation for Large Language Models [56.92068213969036]
本稿では,AutoHallと呼ばれる既存のファクトチェックデータセットに基づいて,モデル固有の幻覚データセットを自動的に構築する手法を提案する。
また,自己コントラディションに基づくゼロリソース・ブラックボックス幻覚検出手法を提案する。
論文 参考訳(メタデータ) (2023-09-30T05:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。