論文の概要: Language Models with Conformal Factuality Guarantees
- arxiv url: http://arxiv.org/abs/2402.10978v1
- Date: Thu, 15 Feb 2024 18:31:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 00:15:40.305016
- Title: Language Models with Conformal Factuality Guarantees
- Title(参考訳): 共形事実性保証付き言語モデル
- Authors: Christopher Mohri, Tatsunori Hashimoto
- Abstract要約: コンフォーマルな事実性(conformal factuality)は、言語モデル(LM)出力に対する高い確率の正確性を保証するフレームワークである。
言語モデルにおける共形予測は,高い確率精度保証を提供するバックオフアルゴリズムに対応することを示す。
- 参考スコア(独自算出の注目度): 44.767328168194815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Guaranteeing the correctness and factuality of language model (LM) outputs is
a major open problem. In this work, we propose conformal factuality, a
framework that can ensure high probability correctness guarantees for LMs by
connecting language modeling and conformal prediction. We observe that the
correctness of an LM output is equivalent to an uncertainty quantification
problem, where the uncertainty sets are defined as the entailment set of an
LM's output. Using this connection, we show that conformal prediction in
language models corresponds to a back-off algorithm that provides high
probability correctness guarantees by progressively making LM outputs less
specific (and expanding the associated uncertainty sets). This approach applies
to any black-box LM and requires very few human-annotated samples. Evaluations
of our approach on closed book QA (FActScore, NaturalQuestions) and reasoning
tasks (MATH) show that our approach can provide 80-90% correctness guarantees
while retaining the majority of the LM's original output.
- Abstract(参考訳): 言語モデル(LM)出力の正確性と事実性を保証することは、大きなオープンな問題である。
本研究では,言語モデルと共形予測を接続することにより,LMの確率的正確性を保証するフレームワークである共形事実性を提案する。
lm出力の正しさは不確実性定量化問題と同値であり、不確実性集合はlm出力の補集合として定義される。
この接続を用いて、言語モデルにおける共形予測は、LM出力を徐々に具体化(および関連する不確実性集合の拡大)し、高い確率正当性を保証するバックオフアルゴリズムに対応することを示す。
このアプローチは任意のブラックボックスlmに適用でき、人間の注釈付きサンプルをほとんど必要としない。
閉書QA(FActScore, NaturalQuestions)と推論タスク(MATH)に対する我々のアプローチの評価は、LMの原出力の大部分を維持しつつ、80~90%の正確性を保証することができることを示している。
関連論文リスト
- Calibrating Large Language Models Using Their Generations Only [44.26441565763495]
APRICOT は、信頼目標を設定し、テキスト入力と出力のみに基づいて LLM の信頼度を予測する追加モデルを訓練する手法である。
概念的には単純で、出力以上のターゲットモデルへのアクセスを必要とせず、言語生成に干渉せず、多くの潜在的な使用法を持っている。
閉書質問応答における白箱と黒箱のLCMの校正誤差を考慮し,誤ったLCMの解答を検出する方法として,本手法の競合性を示す。
論文 参考訳(メタデータ) (2024-03-09T17:46:24Z) - Fact-Checking the Output of Large Language Models via Token-Level
Uncertainty Quantification [119.38495860737929]
大型言語モデル(LLM)は幻覚、すなわちその出力に誤った主張を生じさせることで有名である。
本稿では,トークンレベルの不確実性定量化に基づくファクトチェックと幻覚検出パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-07T17:44:17Z) - Small Language Model Can Self-correct [45.88146019748852]
本稿では,自己トリガー方式でLMの初期出力を補正することを目的として,生成言語モデルに内在的アンダーライン・アンダーライン・コレクション(ISC)を導入する。
我々は,60億から13億のパラメータサイズを持つLMを用いて,常識推論と事実知識推論を含む2つのタスクで実験を行う。
論文 参考訳(メタデータ) (2024-01-14T14:29:07Z) - Decomposing Uncertainty for Large Language Models through Input
Clarification Ensembling [74.00331519233026]
大規模言語モデル(LLM)のための不確実性分解フレームワークを提案する。
我々のフレームワークは入力の一連の明確化を生成し、それらを固定LLMに入力し、対応する予測をアンサンブルする。
実験により,提案手法は様々なタスクに対して正確かつ確実な不確実性定量化を提供することを示した。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Investigating Uncertainty Calibration of Aligned Language Models under
the Multiple-Choice Setting [31.386229001853817]
本研究は,複数選択条件下でのLMのロジットに基づく不確実性校正に対するアライメントプロセスの影響を系統的に評価する。
複数選択条件下では2つの不確実性がみられ, 応答決定とフォーマット選好の責任を負う。
そこで本研究では,協調型LMのキャリブレーションを行うための,実装が容易かつサンプル効率のよい手法を提案する。
論文 参考訳(メタデータ) (2023-10-18T06:07:28Z) - Conformal Language Modeling [63.69391255926407]
生成言語モデル(LM)の共形予測のための新しい手法を提案する。
標準共形予測は厳密で統計的に保証された予測セットを生成する。
我々は,オープンドメイン質問応答,テキスト要約,ラジオロジーレポート生成において,複数のタスクに対するアプローチの約束を実証する。
論文 参考訳(メタデータ) (2023-06-16T21:55:08Z) - Generating with Confidence: Uncertainty Quantification for Black-box
Large Language Models [42.30291103270481]
自然言語生成(NLG)に特化した大規模言語モデル(LLM)が,最近,有望な機能を示すようになった。
我々は、信頼できない結果が無視されるか、さらなる評価のために得られる可能性のある選択的なNLGに適用し、いくつかの信頼/不確実性指標を提案し、比較する。
その結果, セマンティックな分散の簡易な測定基準が, LLM応答の質の信頼性の高い予測因子であることが判明した。
論文 参考訳(メタデータ) (2023-05-30T16:31:26Z) - Librispeech Transducer Model with Internal Language Model Prior
Correction [58.579080710256704]
外部言語モデル (LM) を浅い融合で含み、推定された内部 LM を減算する変種を研究する。
内部LMの減算は、通常の浅い融合よりも14%以上の相対的な改善をもたらします。
我々のトランスデューサは、非ブランクラベルに対して異なる確率分布を持つ。
論文 参考訳(メタデータ) (2021-04-07T09:18:56Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。