論文の概要: Semantic Reformulation Entropy for Robust Hallucination Detection in QA Tasks
- arxiv url: http://arxiv.org/abs/2509.17445v1
- Date: Mon, 22 Sep 2025 07:38:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.269849
- Title: Semantic Reformulation Entropy for Robust Hallucination Detection in QA Tasks
- Title(参考訳): QAタスクにおけるロバスト幻覚検出のための意味改革エントロピー
- Authors: Chaodong Tong, Qi Zhang, Lei Jiang, Yanbing Liu, Nannan Sun, Wei Li,
- Abstract要約: 既存のエントロピーに基づくセマンティックレベルの不確実性推定法は,可変長解のサンプリングノイズと不安定クラスタリングによって制限される。
本稿では2つの方法で不確実性評価を改善するセマンティック・リフォーム・エントロピー(SRE)を提案する。
- 参考スコア(独自算出の注目度): 13.230578301939907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reliable question answering with large language models (LLMs) is challenged by hallucinations, fluent but factually incorrect outputs arising from epistemic uncertainty. Existing entropy-based semantic-level uncertainty estimation methods are limited by sampling noise and unstable clustering of variable-length answers. We propose Semantic Reformulation Entropy (SRE), which improves uncertainty estimation in two ways. First, input-side semantic reformulations produce faithful paraphrases, expand the estimation space, and reduce biases from superficial decoder tendencies. Second, progressive, energy-based hybrid clustering stabilizes semantic grouping. Experiments on SQuAD and TriviaQA show that SRE outperforms strong baselines, providing more robust and generalizable hallucination detection. These results demonstrate that combining input diversification with multi-signal clustering substantially enhances semantic-level uncertainty estimation.
- Abstract(参考訳): 大きな言語モデル(LLMs)で答える信頼性の高い質問は、幻覚によって解決される。
既存のエントロピーに基づくセマンティックレベルの不確実性推定法は,可変長解のサンプリングノイズと不安定クラスタリングによって制限される。
本稿では2つの方法で不確実性評価を改善するセマンティック・リフォーム・エントロピー(SRE)を提案する。
まず、入力側セマンティックリフォーメーションは忠実なパラフレーズを生成し、推定空間を拡張し、表面デコーダの傾向からバイアスを減らす。
第二に、プログレッシブなエネルギーベースのハイブリッドクラスタリングはセマンティックグルーピングを安定化させる。
SQuADとTriviaQAの実験により、SREは強いベースラインより優れ、より堅牢で一般化可能な幻覚検出を提供することが示された。
これらの結果から,入力の多様化と多信号クラスタリングを組み合わせることで,意味レベルの不確実性の推定が大幅に向上することが示唆された。
関連論文リスト
- Semantic Energy: Detecting LLM Hallucination Beyond Entropy [106.92072182161712]
大規模言語モデル(LLM)は、現実のアプリケーションにますますデプロイされているが、幻覚の影響を受けやすいままである。
不確実性推定は、そのような幻覚を検出するための実現可能なアプローチである。
本稿では,新しい不確実性推定フレームワークであるセマンティック・エナジーを紹介する。
論文 参考訳(メタデータ) (2025-08-20T07:33:50Z) - Enhancing Uncertainty Estimation and Interpretability via Bayesian Non-negative Decision Layer [55.66973223528494]
本研究では, ディープニューラルネットワークを条件付きベイズ非負因子分析として再構成したベイズ非負決定層(BNDL)を開発した。
BNDLは複雑な依存関係をモデル化し、堅牢な不確実性推定を提供する。
また,BNDLが効果的に不整合学習を達成できるという理論的保証も提供する。
論文 参考訳(メタデータ) (2025-05-28T10:23:34Z) - RePPL: Recalibrating Perplexity by Uncertainty in Semantic Propagation and Language Generation for Explainable QA Hallucination Detection [26.186204911845866]
幻覚は大きな言語モデルにとって 重要な障害です
これら2つの側面により不確実性の測定を補正するRePPLを提案する。
提案手法は,様々なQAデータセットにまたがる最高の包括的検出性能を実現する。
論文 参考訳(メタデータ) (2025-05-21T11:23:05Z) - Kernel Language Entropy: Fine-grained Uncertainty Quantification for LLMs from Semantic Similarities [79.9629927171974]
大規模言語モデル(LLM)の不確実性は、安全性と信頼性が重要であるアプリケーションには不可欠である。
ホワイトボックスとブラックボックス LLM における不確実性評価手法である Kernel Language Entropy (KLE) を提案する。
論文 参考訳(メタデータ) (2024-05-30T12:42:05Z) - Word-Sequence Entropy: Towards Uncertainty Estimation in Free-Form Medical Question Answering Applications and Beyond [52.246494389096654]
本稿ではワードシーケンスエントロピー(WSE)を紹介し,単語レベルとシーケンスレベルの不確実性を校正する手法を提案する。
We compare WSE with six baseline method on five free-form medical QA datasets, using 7 popular large language model (LLMs)。
論文 参考訳(メタデータ) (2024-02-22T03:46:08Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。