論文の概要: Semantic Energy: Detecting LLM Hallucination Beyond Entropy
- arxiv url: http://arxiv.org/abs/2508.14496v1
- Date: Wed, 20 Aug 2025 07:33:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.378036
- Title: Semantic Energy: Detecting LLM Hallucination Beyond Entropy
- Title(参考訳): セマンティックエネルギー:エントロピーを超えたLLM幻覚を検出する
- Authors: Huan Ma, Jiadong Pan, Jing Liu, Yan Chen, Joey Tianyi Zhou, Guangyu Wang, Qinghua Hu, Hua Wu, Changqing Zhang, Haifeng Wang,
- Abstract要約: 大規模言語モデル(LLM)は、現実のアプリケーションにますますデプロイされているが、幻覚の影響を受けやすいままである。
不確実性推定は、そのような幻覚を検出するための実現可能なアプローチである。
本稿では,新しい不確実性推定フレームワークであるセマンティック・エナジーを紹介する。
- 参考スコア(独自算出の注目度): 87.19110227560867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are being increasingly deployed in real-world applications, but they remain susceptible to hallucinations, which produce fluent yet incorrect responses and lead to erroneous decision-making. Uncertainty estimation is a feasible approach to detect such hallucinations. For example, semantic entropy estimates uncertainty by considering the semantic diversity across multiple sampled responses, thus identifying hallucinations. However, semantic entropy relies on post-softmax probabilities and fails to capture the model's inherent uncertainty, causing it to be ineffective in certain scenarios. To address this issue, we introduce Semantic Energy, a novel uncertainty estimation framework that leverages the inherent confidence of LLMs by operating directly on logits of penultimate layer. By combining semantic clustering with a Boltzmann-inspired energy distribution, our method better captures uncertainty in cases where semantic entropy fails. Experiments across multiple benchmarks show that Semantic Energy significantly improves hallucination detection and uncertainty estimation, offering more reliable signals for downstream applications such as hallucination detection.
- Abstract(参考訳): 大規模言語モデル(LLM)は、現実のアプリケーションにますます多くデプロイされているが、幻覚の影響を受けやすいままであり、流動的で誤った反応をもたらし、誤った意思決定につながる。
不確実性推定は、そのような幻覚を検出するための実現可能なアプローチである。
例えば、セマンティックエントロピーは複数のサンプル応答のセマンティック多様性を考慮して不確実性を推定し、幻覚を識別する。
しかし、セマンティックエントロピーは、ソフトマックス後の確率に依存しており、モデルの固有の不確実性を捉えることができず、特定のシナリオでは効果がない。
この問題に対処するため,本研究では,LLMの固有信頼度を利用する新たな不確実性評価フレームワークであるセマンティック・エナジーを紹介する。
セマンティッククラスタリングとボルツマンにインスパイアされたエネルギー分布を組み合わせることで、セマンティックエントロピーが失敗する場合の不確実性をよりよく捉えることができる。
複数のベンチマーク実験により、セマンティック・エナジーは幻覚検出や不確実性推定を大幅に改善し、幻覚検出などの下流アプリケーションに信頼性の高い信号を提供することが示された。
関連論文リスト
- Counterfactual Probing for Hallucination Detection and Mitigation in Large Language Models [0.0]
本研究では,大規模言語モデルにおける幻覚の検出と緩和のための新しいアプローチである,対物探索を提案する。
提案手法は, 疑わしいが微妙な事実誤りを含む反事実文を動的に生成し, これらの摂動に対するモデルの感度を評価する。
論文 参考訳(メタデータ) (2025-08-03T17:29:48Z) - RePPL: Recalibrating Perplexity by Uncertainty in Semantic Propagation and Language Generation for Explainable QA Hallucination Detection [29.344966292751817]
幻覚は大きな言語モデルにとって 重要な障害です
これら2つの側面により不確実性の測定を補正するRePPLを提案する。
提案手法は,様々なQAデータセットにまたがる最高の包括的検出性能を実現する。
論文 参考訳(メタデータ) (2025-05-21T11:23:05Z) - Enhancing Uncertainty Modeling with Semantic Graph for Hallucination Detection [46.930149191121416]
大規模言語モデル(LLM)は、非事実的あるいは不誠実な文で幻覚を起こす傾向がある。
本稿では,幻覚検出のための意味グラフを用いた不確実性モデリング手法を提案する。
論文 参考訳(メタデータ) (2025-01-02T16:45:05Z) - To Believe or Not to Believe Your LLM [51.2579827761899]
大規模言語モデル(LLM)における不確実性定量化について検討する。
疫学的な不確実性が大きい場合にのみ確実に検出できる情報理論の指標を導出する。
定式化の利点を実証する一連の実験を行う。
論文 参考訳(メタデータ) (2024-06-04T17:58:18Z) - Kernel Language Entropy: Fine-grained Uncertainty Quantification for LLMs from Semantic Similarities [79.9629927171974]
大規模言語モデル(LLM)の不確実性は、安全性と信頼性が重要であるアプリケーションには不可欠である。
ホワイトボックスとブラックボックス LLM における不確実性評価手法である Kernel Language Entropy (KLE) を提案する。
論文 参考訳(メタデータ) (2024-05-30T12:42:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。