論文の概要: On the Role of Unobserved Sequences on Sample-based Uncertainty Quantification for LLMs
- arxiv url: http://arxiv.org/abs/2510.04439v1
- Date: Mon, 06 Oct 2025 02:14:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.651534
- Title: On the Role of Unobserved Sequences on Sample-based Uncertainty Quantification for LLMs
- Title(参考訳): LLMのサンプルベース不確かさ定量化における未観測配列の役割について
- Authors: Lucie Kunitomo-Jacquin, Edison Marrese-Taylor, Ken Fukuda,
- Abstract要約: 大規模言語モデル(LLM)における不確実性の定量化は、安全クリティカルなアプリケーションにとって重要である。
我々は、観測されていないシーケンスの確率が重要な役割を果たすことを提唱し、実験的に示す。
- 参考スコア(独自算出の注目度): 9.370434677545907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantifying uncertainty in large language models (LLMs) is important for safety-critical applications because it helps spot incorrect answers, known as hallucinations. One major trend of uncertainty quantification methods is based on estimating the entropy of the distribution of the LLM's potential output sequences. This estimation is based on a set of output sequences and associated probabilities obtained by querying the LLM several times. In this paper, we advocate and experimentally show that the probability of unobserved sequences plays a crucial role, and we recommend future research to integrate it to enhance such LLM uncertainty quantification methods.
- Abstract(参考訳): 大規模言語モデル(LLM)における不確実性の定量化は、幻覚として知られる誤った答えを見つけるのに役立つため、安全クリティカルなアプリケーションにとって重要である。
不確実性定量法の1つの主要な傾向は、LLMの潜在的出力シーケンスの分布のエントロピーを推定することに基づいている。
この推定は、LCMに何度も問い合わせて得られる一連の出力シーケンスと関連する確率に基づいている。
本稿では,未観測シーケンスの確率が重要な役割を担っていることを提唱し,実験的に示すとともに,LCMの不確実性定量化手法の確立に向けた今後の研究を推奨する。
関連論文リスト
- CLUE: Concept-Level Uncertainty Estimation for Large Language Models [49.92690111618016]
大規模言語モデル(LLM)のための概念レベル不確実性推定のための新しいフレームワークを提案する。
LLMを利用して、出力シーケンスを概念レベルの表現に変換し、シーケンスを個別の概念に分解し、各概念の不確かさを個別に測定する。
我々は,文レベルの不確実性と比較して,CLUEがより解釈可能な不確実性推定結果を提供できることを示す実験を行った。
論文 参考訳(メタデータ) (2024-09-04T18:27:12Z) - Question Rephrasing for Quantifying Uncertainty in Large Language Models: Applications in Molecular Chemistry Tasks [4.167519875804914]
大規模言語モデル(LLM)の入力不確実性を評価するための新しい質問文記述手法を提案する。
この手法はLLMの出力不確実性を測定するサンプリング手法と統合され、より包括的な不確実性評価を提供する。
論文 参考訳(メタデータ) (2024-08-07T12:38:23Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - To Believe or Not to Believe Your LLM [51.2579827761899]
大規模言語モデル(LLM)における不確実性定量化について検討する。
疫学的な不確実性が大きい場合にのみ確実に検出できる情報理論の指標を導出する。
定式化の利点を実証する一連の実験を行う。
論文 参考訳(メタデータ) (2024-06-04T17:58:18Z) - Kernel Language Entropy: Fine-grained Uncertainty Quantification for LLMs from Semantic Similarities [79.9629927171974]
大規模言語モデル(LLM)の不確実性は、安全性と信頼性が重要であるアプリケーションには不可欠である。
ホワイトボックスとブラックボックス LLM における不確実性評価手法である Kernel Language Entropy (KLE) を提案する。
論文 参考訳(メタデータ) (2024-05-30T12:42:05Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。