論文の概要: ConU: Conformal Uncertainty in Large Language Models with Correctness Coverage Guarantees
- arxiv url: http://arxiv.org/abs/2407.00499v1
- Date: Sat, 29 Jun 2024 17:33:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 02:46:30.904451
- Title: ConU: Conformal Uncertainty in Large Language Models with Correctness Coverage Guarantees
- Title(参考訳): ConU: 訂正カバレッジ保証付き大規模言語モデルにおける整合不確かさ
- Authors: Zhiyuan Wang, Jinhao Duan, Lu Cheng, Yue Zhang, Qingni Wang, Hengtao Shen, Xiaofeng Zhu, Xiaoshuang Shi, Kaidi Xu,
- Abstract要約: 自然言語生成(NLG)タスクの不確実性定量化は、依然としてオープンな課題である。
本研究では、不確実性の指標を厳密な理論的保証に変換することができる適合型予測(CP)について検討する。
本稿では,自己整合性を利用したサンプリングに基づく不確実性評価手法を提案する。
- 参考スコア(独自算出の注目度): 68.33498595506941
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Uncertainty quantification (UQ) in natural language generation (NLG) tasks remains an open challenge, exacerbated by the intricate nature of the recent large language models (LLMs). This study investigates adapting conformal prediction (CP), which can convert any heuristic measure of uncertainty into rigorous theoretical guarantees by constructing prediction sets, for black-box LLMs in open-ended NLG tasks. We propose a sampling-based uncertainty measure leveraging self-consistency and develop a conformal uncertainty criterion by integrating the uncertainty condition aligned with correctness into the design of the CP algorithm. Experimental results indicate that our uncertainty measure generally surpasses prior state-of-the-art methods. Furthermore, we calibrate the prediction sets within the model's unfixed answer distribution and achieve strict control over the correctness coverage rate across 6 LLMs on 4 free-form NLG datasets, spanning general-purpose and medical domains, while the small average set size further highlights the efficiency of our method in providing trustworthy guarantees for practical open-ended NLG applications.
- Abstract(参考訳): 自然言語生成(NLG)タスクにおける不確実性定量化(UQ)は、最近の大規模言語モデル(LLM)の複雑な性質によってさらに悪化する、オープンな課題である。
本研究では,オープンエンドNLGタスクにおけるブラックボックスLSMに対して,不確実性のヒューリスティックな測度を予測セットを構築することによって厳密な理論的保証に変換することができる適合型予測(CP)の適用について検討する。
本稿では,自己整合性を利用したサンプリングベース不確実性評価手法を提案する。
実験結果から,我々の不確実性指標が従来手法を超越していることが示唆された。
さらに,モデルの未固定回答分布内の予測セットを校正し,4つのフリーフォームNLGデータセット上での6LLMにおける正当性カバレッジ率の厳密な制御を実現し,汎用領域と医療領域にまたがる平均セットサイズを小さくし,実用的なオープンエンドNLGアプリケーションに対して信頼性の高い保証を提供する上で,本手法の効率をさらに強調する。
関連論文リスト
- Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Conformal Prediction for Natural Language Processing: A Survey [23.638214012459425]
コンフォーマル予測は理論的に健全で実用的なフレームワークとして現れている。
そのモデルに依存しない分布のない性質は、特にNLPシステムの現在の欠点に対処することを約束している。
本稿では,共形予測手法とその保証,およびNLPにおける既存応用に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-05-03T10:00:45Z) - Language Models with Conformal Factuality Guarantees [44.767328168194815]
コンフォーマルな事実性(conformal factuality)は、言語モデル(LM)出力に対する高い確率の正確性を保証するフレームワークである。
言語モデルにおける共形予測は,高い確率精度保証を提供するバックオフアルゴリズムに対応することを示す。
論文 参考訳(メタデータ) (2024-02-15T18:31:53Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - PAC Neural Prediction Set Learning to Quantify the Uncertainty of
Generative Language Models [14.61061898015653]
我々は、生成言語モデル(GLM)の不確かさを定量化するための、ほぼ正しい(PAC)保証を持つニューラルネットワーク予測セットモデルを学習する。
スカラー値でパラメータ化されている既存の予測セットモデルとは異なり、ニューラルネットワークによる予測セットのパラメータ化を提案する。
本手法は,標準基準法と比較して,定量化の不確かさを平均63%の値で改善することを示す。
論文 参考訳(メタデータ) (2023-07-18T13:36:24Z) - Validation Diagnostics for SBI algorithms based on Normalizing Flows [55.41644538483948]
本研究は,NFに基づく多次元条件(後)密度推定器の検証診断を容易にすることを提案する。
また、局所的な一貫性の結果に基づいた理論的保証も提供する。
この作業は、より良い特定モデルの設計を支援したり、新しいSBIアルゴリズムの開発を促進するのに役立つだろう。
論文 参考訳(メタデータ) (2022-11-17T15:48:06Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。