論文の概要: UQLM: A Python Package for Uncertainty Quantification in Large Language Models
- arxiv url: http://arxiv.org/abs/2507.06196v1
- Date: Tue, 08 Jul 2025 17:22:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:38.367657
- Title: UQLM: A Python Package for Uncertainty Quantification in Large Language Models
- Title(参考訳): UQLM: 大規模言語モデルにおける不確実性定量化のためのPythonパッケージ
- Authors: Dylan Bouchard, Mohit Singh Chauhan, David Skarbrevik, Ho-Kyeong Ra, Viren Bajaj, Zeya Ahmad,
- Abstract要約: 我々は、最先端不確実性定量化(UQ)技術を用いた幻覚検出のためのPythonパッケージであるUQLMを紹介する。
このツールキットは、応答レベルの信頼性スコアを0から1まで計算するUQベースのスコアラーのスイートを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hallucinations, defined as instances where Large Language Models (LLMs) generate false or misleading content, pose a significant challenge that impacts the safety and trust of downstream applications. We introduce UQLM, a Python package for LLM hallucination detection using state-of-the-art uncertainty quantification (UQ) techniques. This toolkit offers a suite of UQ-based scorers that compute response-level confidence scores ranging from 0 to 1. This library provides an off-the-shelf solution for UQ-based hallucination detection that can be easily integrated to enhance the reliability of LLM outputs.
- Abstract(参考訳): 大きな言語モデル(LLM)が誤ったコンテンツや誤解を招くコンテンツを生成するケースとして定義された幻覚は、下流アプリケーションの安全性と信頼性に影響を与える重大な課題を生じさせる。
現状不確実性定量化(UQ)技術を用いたLLM幻覚検出のためのPythonパッケージであるUQLMを紹介する。
このツールキットは、応答レベルの信頼性スコアを0から1まで計算するUQベースのスコアラーのスイートを提供する。
このライブラリは、LLM出力の信頼性を高めるために容易に統合できるUQベースの幻覚検出のためのオフザシェルフソリューションを提供する。
関連論文リスト
- A Head to Predict and a Head to Question: Pre-trained Uncertainty Quantification Heads for Hallucination Detection in LLM Outputs [71.97006967209539]
大規模言語モデル(LLM)は幻覚、すなわち、散発的に偽情報や偽情報を生成する傾向を持つ。
不確実性定量化(UQ)は、モデル出力の信頼性を評価するためのフレームワークを提供する。
我々は、Mistral、Llama、Gemma 2など、人気のあるLLMシリーズ向けのUQヘッドのコレクションを事前訓練する。
論文 参考訳(メタデータ) (2025-05-13T03:30:26Z) - Token-Level Density-Based Uncertainty Quantification Methods for Eliciting Truthfulness of Large Language Models [76.17975723711886]
不確実性定量化(英: Uncertainty Quantification、UQ)は、大規模言語モデル(LLM)から真正性を求めるための顕著なアプローチである。
本研究では,テキスト生成のために,分類タスクのUQ技術であるMahalanobis Distance (MD)を適用した。
提案手法は,複数レイヤのLCMからトークン埋め込みを抽出し,各トークンのMDスコアを計算し,これらの特徴を訓練した線形回帰を用いてロバストな不確実性スコアを提供する。
論文 参考訳(メタデータ) (2025-02-20T10:25:13Z) - Benchmarking Uncertainty Quantification Methods for Large Language Models with LM-Polygraph [83.90988015005934]
不確実性定量化は機械学習アプリケーションにおいて重要な要素である。
最新のUQベースラインの集合を実装した新しいベンチマークを導入する。
我々は、11タスクにわたるUQと正規化技術に関する大規模な実証的研究を行い、最も効果的なアプローチを特定した。
論文 参考訳(メタデータ) (2024-06-21T20:06:31Z) - LUQ: Long-text Uncertainty Quantification for LLMs [29.987010627250527]
大規模言語モデル(LLM)は、非現実的なコンテンツを生成する傾向がある。
不確実性定量化(UQ)は、モデルの生成に対する信頼性の理解を高める上で重要である。
我々は,複数のモデルからの応答をアンサンブルし,最も低い不確実性で応答を選択するTextscLuq-Ensembleを提案する。
論文 参考訳(メタデータ) (2024-03-29T16:49:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。