論文の概要: ConU: Conformal Uncertainty in Large Language Models with Correctness Coverage Guarantees
- arxiv url: http://arxiv.org/abs/2407.00499v1
- Date: Sat, 29 Jun 2024 17:33:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 02:46:30.904451
- Title: ConU: Conformal Uncertainty in Large Language Models with Correctness Coverage Guarantees
- Title(参考訳): ConU: 訂正カバレッジ保証付き大規模言語モデルにおける整合不確かさ
- Authors: Zhiyuan Wang, Jinhao Duan, Lu Cheng, Yue Zhang, Qingni Wang, Hengtao Shen, Xiaofeng Zhu, Xiaoshuang Shi, Kaidi Xu,
- Abstract要約: 自然言語生成(NLG)タスクの不確実性定量化は、依然としてオープンな課題である。
本研究では、不確実性の指標を厳密な理論的保証に変換することができる適合型予測(CP)について検討する。
本稿では,自己整合性を利用したサンプリングに基づく不確実性評価手法を提案する。
- 参考スコア(独自算出の注目度): 68.33498595506941
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Uncertainty quantification (UQ) in natural language generation (NLG) tasks remains an open challenge, exacerbated by the intricate nature of the recent large language models (LLMs). This study investigates adapting conformal prediction (CP), which can convert any heuristic measure of uncertainty into rigorous theoretical guarantees by constructing prediction sets, for black-box LLMs in open-ended NLG tasks. We propose a sampling-based uncertainty measure leveraging self-consistency and develop a conformal uncertainty criterion by integrating the uncertainty condition aligned with correctness into the design of the CP algorithm. Experimental results indicate that our uncertainty measure generally surpasses prior state-of-the-art methods. Furthermore, we calibrate the prediction sets within the model's unfixed answer distribution and achieve strict control over the correctness coverage rate across 6 LLMs on 4 free-form NLG datasets, spanning general-purpose and medical domains, while the small average set size further highlights the efficiency of our method in providing trustworthy guarantees for practical open-ended NLG applications.
- Abstract(参考訳): 自然言語生成(NLG)タスクにおける不確実性定量化(UQ)は、最近の大規模言語モデル(LLM)の複雑な性質によってさらに悪化する、オープンな課題である。
本研究では,オープンエンドNLGタスクにおけるブラックボックスLSMに対して,不確実性のヒューリスティックな測度を予測セットを構築することによって厳密な理論的保証に変換することができる適合型予測(CP)の適用について検討する。
本稿では,自己整合性を利用したサンプリングベース不確実性評価手法を提案する。
実験結果から,我々の不確実性指標が従来手法を超越していることが示唆された。
さらに,モデルの未固定回答分布内の予測セットを校正し,4つのフリーフォームNLGデータセット上での6LLMにおける正当性カバレッジ率の厳密な制御を実現し,汎用領域と医療領域にまたがる平均セットサイズを小さくし,実用的なオープンエンドNLGアプリケーションに対して信頼性の高い保証を提供する上で,本手法の効率をさらに強調する。
関連論文リスト
- Addressing Uncertainty in LLMs to Enhance Reliability in Generative AI [47.64301863399763]
中国レストランプロセスに触発された動的セマンティッククラスタリング手法を提案する。
生成したセマンティッククラスタのエントロピーを計算することにより,あるクエリ上でのLarge Language Model(LLM)の不確実性を定量化する。
本稿では,これらのクラスタの(負の)確率を,コンフォーマル予測フレームワーク内の(非)整合性スコアとして活用することを提案する。
論文 参考訳(メタデータ) (2024-11-04T18:49:46Z) - Kernel Language Entropy: Fine-grained Uncertainty Quantification for LLMs from Semantic Similarities [79.9629927171974]
大規模言語モデル(LLM)の不確実性は、安全性と信頼性が重要であるアプリケーションには不可欠である。
ホワイトボックスとブラックボックス LLM における不確実性評価手法である Kernel Language Entropy (KLE) を提案する。
論文 参考訳(メタデータ) (2024-05-30T12:42:05Z) - Conformal Prediction for Natural Language Processing: A Survey [23.638214012459425]
コンフォーマル予測は理論的に健全で実用的なフレームワークとして現れている。
そのモデルに依存しない分布のない性質は、特にNLPシステムの現在の欠点に対処することを約束している。
本稿では,共形予測手法とその保証,およびNLPにおける既存応用に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-05-03T10:00:45Z) - Word-Sequence Entropy: Towards Uncertainty Estimation in Free-Form Medical Question Answering Applications and Beyond [52.246494389096654]
本稿ではワードシーケンスエントロピー(WSE)を紹介し,単語レベルとシーケンスレベルの不確実性を校正する手法を提案する。
We compare WSE with six baseline method on five free-form medical QA datasets, using 7 popular large language model (LLMs)。
論文 参考訳(メタデータ) (2024-02-22T03:46:08Z) - Language Models with Conformal Factuality Guarantees [44.767328168194815]
コンフォーマルな事実性(conformal factuality)は、言語モデル(LM)出力に対する高い確率の正確性を保証するフレームワークである。
言語モデルにおける共形予測は,高い確率精度保証を提供するバックオフアルゴリズムに対応することを示す。
論文 参考訳(メタデータ) (2024-02-15T18:31:53Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Generating with Confidence: Uncertainty Quantification for Black-box Large Language Models [37.63939774027709]
自然言語生成(NLG)に特化した大規模言語モデル(LLM)が,最近,有望な機能を示すようになった。
我々は、信頼できない結果が無視されるか、さらなる評価のために得られるような、選択的なNLG*に適用し、いくつかの信頼/不確実性対策を提案し、比較する。
その結果, セマンティックな分散の簡易な測定は, LLM応答の質の信頼性を予測できることがわかった。
論文 参考訳(メタデータ) (2023-05-30T16:31:26Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。