論文の概要: HALT: Hallucination Assessment via Latent Testing
- arxiv url: http://arxiv.org/abs/2601.14210v1
- Date: Tue, 20 Jan 2026 18:16:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.446651
- Title: HALT: Hallucination Assessment via Latent Testing
- Title(参考訳): HALT:潜伏テストによる幻覚評価
- Authors: Rohan Bhatnagar, Youran Sun, Chi Andrew Zhang, Yixin Wen, Haizhao Yang,
- Abstract要約: 大きな言語モデルにおける幻覚は、忠実な読み出しの失敗と解釈できる。
質問トークンの中間隠蔽状態から直接幻覚リスクを読み取る残差プローブを提案する。
高速な選択生成とルーティングのためのエージェント批評家として,プローブをデプロイする。
- 参考スコア(独自算出の注目度): 5.785021425715989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hallucination in large language models (LLMs) can be understood as a failure of faithful readout: although internal representations may encode uncertainty about a query, decoding pressures still yield a fluent answer. We propose lightweight residual probes that read hallucination risk directly from intermediate hidden states of question tokens, motivated by the hypothesis that these layers retain epistemic signals that are attenuated in the final decoding stage. The probe is a small auxiliary network whose computation is orders of magnitude cheaper than token generation and can be evaluated fully in parallel with inference, enabling near-instantaneous hallucination risk estimation with effectively zero added latency in low-risk cases. We deploy the probe as an agentic critic for fast selective generation and routing, allowing LLMs to immediately answer confident queries while delegating uncertain ones to stronger verification pipelines. Across four QA benchmarks and multiple LLM families, the method achieves strong AUROC and AURAC, generalizes under dataset shift, and reveals interpretable structure in intermediate representations, positioning fast internal uncertainty readout as a principled foundation for reliable agentic AI.
- Abstract(参考訳): 大規模な言語モデル(LLM)における幻覚は、忠実な読み出しの失敗と解釈できる:内部表現はクエリに関する不確実性を符号化するが、デコードされたプレッシャーは依然として流動的な答えをもたらす。
本研究は,これらの層が最終復号段階で減衰するてんかん信号を保持するという仮説により,質問トークンの中間隠蔽状態から直接幻覚リスクを読み取る軽量残留プローブを提案する。
このプローブは、トークン生成よりも桁違いに安価で、推論と完全に並列に評価できる小さな補助ネットワークであり、リスクの低いケースでは、効果的に追加のレイテンシをゼロにすることで、ほぼ瞬時に幻覚リスクを推定できる。
我々は、高速な選択生成とルーティングのエージェント的批判としてプローブをデプロイし、LCMが信頼性の高いクエリに即座に応答し、不確実なクエリをより強力な検証パイプラインに委譲することを可能にする。
4つのQAベンチマークと複数のLLMファミリにまたがって、強力なAUROCとAURACを達成し、データセットシフトの下で一般化し、中間表現における解釈可能な構造を明らかにし、高速な内部不確実性読み出しを信頼性のあるエージェントAIの原理的基礎として位置づける。
関連論文リスト
- Reading Between the Lines: Abstaining from VLM-Generated OCR Errors via Latent Representation Probes [79.36545159724703]
隠れ状態や注目パターンの軽量プローブを学習するためのLRP(Latent Representation Probing)を提案する。
LRPは、ベストベースラインよりも吸音精度を7.6%向上させる。
これにより、デプロイメント対応AIシステムを構築するための原則化されたフレームワークが確立される。
論文 参考訳(メタデータ) (2025-11-25T00:24:42Z) - SeSE: A Structural Information-Guided Uncertainty Quantification Framework for Hallucination Detection in LLMs [43.76748192880071]
本稿では,大規模言語モデル固有の意味的不確かさを定量化する,原則的UQフレームワークを提案する。
我々は,指向性セマンティック依存をキャプチャする適応的にスペーシングされた有向グラフ構築アルゴリズムを開発した。
そして階層的抽象化を通じて潜在意味構造情報を利用する。
論文 参考訳(メタデータ) (2025-11-20T11:54:12Z) - Sparse Neurons Carry Strong Signals of Question Ambiguity in LLMs [23.900061215331338]
我々は,大言語モデル(LLM)の内部表現に不明瞭さが線形に符号化されていることを示す。
我々は,LLMが質問あいまいさのコンパクトな内部表現を形成し,解釈可能かつ制御可能な振る舞いを可能にすることを示す。
論文 参考訳(メタデータ) (2025-09-17T03:34:35Z) - Can LLMs Detect Their Confabulations? Estimating Reliability in Uncertainty-Aware Language Models [24.72990207218907]
LLM(Large Language Models)は、畳み込み(confabulation)として知られる、流動的だが不正なコンテンツを生成する傾向にある。
本研究では、文脈内情報がモデル行動にどのように影響するか、LLMが信頼できない応答を識別できるかを検討する。
論文 参考訳(メタデータ) (2025-08-11T16:12:36Z) - MIRAGE-Bench: LLM Agent is Hallucinating and Where to Find Them [52.764019220214344]
幻覚は、大きな言語モデル(LLM)ベースのエージェントに重大なリスクをもたらす。
MIRAGE-Benchは対話型環境における幻覚の抽出と評価のための最初の統一ベンチマークである。
論文 参考訳(メタデータ) (2025-07-28T17:38:29Z) - Detecting LLM Hallucination Through Layer-wise Information Deficiency: Analysis of Ambiguous Prompts and Unanswerable Questions [60.31496362993982]
大規模言語モデル(LLM)は、自信を持って不正確な応答を頻繁に生成する。
本稿では,情報フローの系統的解析を通じて,モデル幻覚を検出する新しいテストタイム手法を提案する。
論文 参考訳(メタデータ) (2024-12-13T16:14:49Z) - Mitigating LLM Hallucinations via Conformal Abstention [70.83870602967625]
我々は,大言語モデルが一般ドメインでの応答をいつ無視すべきかを決定するための,原則化された手順を開発する。
我々は、幻覚率(エラー率)の厳密な理論的保証の恩恵を受けるため、共形予測手法を活用して、禁忌手順を開発する。
実験によって得られた共形禁忌法は, 種々の閉書, オープンドメイン生成質問応答データセットに, 幻覚率を確実に拘束する。
論文 参考訳(メタデータ) (2024-04-04T11:32:03Z) - INSIDE: LLMs' Internal States Retain the Power of Hallucination Detection [39.52923659121416]
本稿では,textbfinternal textbfStates内に保持される密接な意味情報について,HoluctextbfInation textbfDEtectionについて検討する。
応答の自己整合性をよりよく評価するために、単純で効果的な textbfEigenScore メトリクスが提案されている。
内部状態における極端なアクティベーションを阻害するために,テスト時間特徴クリッピング手法を提案する。
論文 参考訳(メタデータ) (2024-02-06T06:23:12Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。