論文の概要: HALT: Hallucination Assessment via Log-probs as Time series
- arxiv url: http://arxiv.org/abs/2602.02888v1
- Date: Mon, 02 Feb 2026 22:46:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.12236
- Title: HALT: Hallucination Assessment via Log-probs as Time series
- Title(参考訳): HALT: 時系列としてのログプロブによる幻覚評価
- Authors: Ahmad Shapiro, Karan Taneja, Ashok Goel,
- Abstract要約: 本稿では,軽量幻覚検出器であるHALT(Halucination Assessment via Log-probs as Time series)を提案する。
HALTは、エントロピーに基づく特徴と組み合わされたゲートリカレント単位モデルを使用して、モデルのキャリブレーションバイアスを学習する。
Hub (Hallucination Detection Unified Benchmark)は、事前データセットを推論タスクと汎用スキルの両方をカバーする10の機能に集約する。
- 参考スコア(独自算出の注目度): 2.1601966913620334
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hallucinations remain a major obstacle for large language models (LLMs), especially in safety-critical domains. We present HALT (Hallucination Assessment via Log-probs as Time series), a lightweight hallucination detector that leverages only the top-20 token log-probabilities from LLM generations as a time series. HALT uses a gated recurrent unit model combined with entropy-based features to learn model calibration bias, providing an extremely efficient alternative to large encoders. Unlike white-box approaches, HALT does not require access to hidden states or attention maps, relying only on output log-probabilities. Unlike black-box approaches, it operates on log-probs rather than surface-form text, which enables stronger domain generalization and compatibility with proprietary LLMs without requiring access to internal weights. To benchmark performance, we introduce HUB (Hallucination detection Unified Benchmark), which consolidates prior datasets into ten capabilities covering both reasoning tasks (Algorithmic, Commonsense, Mathematical, Symbolic, Code Generation) and general purpose skills (Chat, Data-to-Text, Question Answering, Summarization, World Knowledge). While being 30x smaller, HALT outperforms Lettuce, a fine-tuned modernBERT-base encoder, achieving a 60x speedup gain on HUB. HALT and HUB together establish an effective framework for hallucination detection across diverse LLM capabilities.
- Abstract(参考訳): 幻覚は大きな言語モデル(LLM)にとって大きな障害であり、特に安全クリティカルな領域では大きな障害となっている。
我々は,LLM世代における上位20個のトークンログ確率のみを時系列として活用する軽量幻覚検出器であるHALT(Hulucination Assessment via Log-probs as Time series)を提案する。
HALTはエントロピーに基づく特徴と組み合わせて、モデルキャリブレーションバイアスを学習し、大きなエンコーダの極めて効率的な代替手段を提供する。
ホワイトボックスアプローチとは異なり、HALTは出力ログ確率のみに依存するため、隠れ状態やアテンションマップへのアクセスを必要としない。
ブラックボックスのアプローチとは異なり、表面的なテキストではなくログプロブで動作し、内部重みを必要とせずにドメインの一般化とプロプライエタリなLLMとの互換性を高める。
HUB(Hallucination Detection Unified Benchmark)は、従来のデータセットを推論タスク(algorithmic, Commonsense, Mathematical, Symbolic, Code Generation)と汎用スキル(Chat, Data-to-Text, Question Answering, Summarization, World Knowledge)の両方をカバーする10の機能に集約する。
HALTは30倍小さいが、改良されたModernBERTベースのエンコーダであるLettuceより優れており、HUBでは60倍の高速化を実現している。
HALTとHUBは、多様なLLM機能にまたがる幻覚検出のための効果的な枠組みを確立している。
関連論文リスト
- Consistency Is the Key: Detecting Hallucinations in LLM Generated Text By Checking Inconsistencies About Key Facts [21.081815261690444]
大規模言語モデル(LLM)は、しばしば幻覚を生じさせ、現実の知識に根ざしていない事実的誤りのテキストを生成する。
これは、医療、金融、顧客サポートといった分野に深刻なリスクをもたらす。
外部知識ベースを活用できない効率的な検出手法であるCONFACTCHECKを紹介する。
論文 参考訳(メタデータ) (2025-11-15T14:33:02Z) - HAVE: Head-Adaptive Gating and ValuE Calibration for Hallucination Mitigation in Large Language Models [29.677280135028436]
LLM(Large Language Models)は、検索強化または長文生成において幻覚を生じることが多い。
HAVE(Head-Adaptive Gating and ValuE)は,頭部重みと生の注意重みに対処するパラメータフリーデコードフレームワークである。
HAVEは一貫して幻覚を減らし、DAGCDを含む強力なベースラインをわずかに上回っている。
論文 参考訳(メタデータ) (2025-09-08T12:06:09Z) - Beyond ROUGE: N-Gram Subspace Features for LLM Hallucination Detection [5.0106565473767075]
大規模言語モデル(LLM)は、自然言語を含む様々なタスクにおいて有効性を示す。
幻覚の根本的な問題は依然としてこれらのモデルに悩まされており、一貫性のある真正な情報を生成する際の信頼性を制限している。
LLM生成テキストからN-Gram周波数テンソルを構成するROUGEにインスパイアされた新しい手法を提案する。
このテンソルは共起パターンを符号化することでよりリッチな意味構造を捉え、事実と幻覚的コンテンツをよりよく区別することができる。
論文 参考訳(メタデータ) (2025-09-03T18:52:24Z) - Learned Hallucination Detection in Black-Box LLMs using Token-level Entropy Production Rate [0.19676943624884313]
大きな言語モデル(LLM)における幻覚は、質問回答タスクの出力が現実世界の信頼性を著しく損なう。
本稿では,データアクセスに制限のあるシナリオに特化して設計された,ロバストでワンショットの幻覚検出のための応用手法を提案する。
提案手法は,非グリーディ復号時に生成したこれらのログ確率から直接不確実性指標を導出する。
論文 参考訳(メタデータ) (2025-09-01T13:34:21Z) - Mitigating Hallucinations in Multimodal LLMs via Object-aware Preference Optimization [55.543583937522804]
MLLM(Multimodal Large Language Models)は、様々なタスクに対処するための統一インターフェースとして登場した。
多くのベンチマークで最先端の結果が誇示されているにもかかわらず、長年の問題はMLLMが幻覚を起こす傾向にある。
本稿では,幻覚の問題をアライメント問題として取り上げ,幻覚を伴わないコンテンツを生成するためのMLLMのステアリングを試みる。
論文 参考訳(メタデータ) (2025-08-27T18:02:04Z) - Beyond Next Token Probabilities: Learnable, Fast Detection of Hallucinations and Data Contamination on LLM Output Distributions [60.43398881149664]
LLM出力シグナチャの効率的な符号化を訓練した軽量アテンションベースアーキテクチャであるLOS-Netを紹介する。
非常に低い検出レイテンシを維持しながら、さまざまなベンチマークやLLMで優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-03-18T09:04:37Z) - MLLM can see? Dynamic Correction Decoding for Hallucination Mitigation [50.73561815838431]
MLLM(Multimodal Large Language Models)はしばしば幻覚現象を示す。
実験により,MLLMは最終出力のオブジェクトを誤って生成するが,前層の視覚的オブジェクトを認識できることがわかった。
そこで本研究では,MLLMs DeCoの動的補正復号法を提案する。この手法は,適切な先行層を適応的に選択し,最終層に知識を比例的に統合し,出力ロジットを調整する。
論文 参考訳(メタデータ) (2024-10-15T16:57:44Z) - HypoTermQA: Hypothetical Terms Dataset for Benchmarking Hallucination
Tendency of LLMs [0.0]
幻覚は、大規模言語モデル(LLM)の信頼性と整合性に重大な課題をもたらす
本稿では,LLMの幻覚傾向のベンチマークと効率的な幻覚検出を組み合わせた,スケーラブルな自動フレームワークを提案する。
フレームワークはドメインに依存しないため、任意のドメインでのベンチマーク作成や評価に任意の言語モデルを使用することができる。
論文 参考訳(メタデータ) (2024-02-25T22:23:37Z) - OPERA: Alleviating Hallucination in Multi-Modal Large Language Models
via Over-Trust Penalty and Retrospection-Allocation [124.9008419182485]
OPERA(Over-trust PenaltyとRetrospection-Allocation戦略に基づく新しいMLLM復号法)を提案する。
私たちのアプローチは、ほとんどの幻覚は自己注意行列の知識集約パターンと密接に結びついているという興味深い観察から始まります。
この観察に基づいて、OPERAは、ビーム探索復号時にモデルロジットにペナルティ項を導入し、オーバートラスト問題を緩和する。
論文 参考訳(メタデータ) (2023-11-29T18:57:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。