論文の概要: Think Twice Before Assure: Confidence Estimation for Large Language Models through Reflection on Multiple Answers
- arxiv url: http://arxiv.org/abs/2403.09972v1
- Date: Fri, 15 Mar 2024 02:38:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 20:46:21.371239
- Title: Think Twice Before Assure: Confidence Estimation for Large Language Models through Reflection on Multiple Answers
- Title(参考訳): 保証前に2回考える: 複数回答に対するリフレクションによる大規模言語モデルの信頼度推定
- Authors: Moxin Li, Wenjie Wang, Fuli Feng, Fengbin Zhu, Qifan Wang, Tat-Seng Chua,
- Abstract要約: 本稿では,複数の候補回答の信頼性を徹底的に評価し,不正確な回答に対する過度な信頼を緩和する新しいパラダイムを提案する。
まず, LLMに各回答の正当性を反映し, 正当性を付与するように指示し, 総合的信頼度推定のための正当性を集約する2段階の枠組みを導入する。
- 参考スコア(独自算出の注目度): 90.71323430635593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Confidence estimation aiming to evaluate output trustability is crucial for the application of large language models (LLM), especially the black-box ones. Existing confidence estimation of LLM is typically not calibrated due to the overconfidence of LLM on its generated incorrect answers. Existing approaches addressing the overconfidence issue are hindered by a significant limitation that they merely consider the confidence of one answer generated by LLM. To tackle this limitation, we propose a novel paradigm that thoroughly evaluates the trustability of multiple candidate answers to mitigate the overconfidence on incorrect answers. Building upon this paradigm, we introduce a two-step framework, which firstly instructs LLM to reflect and provide justifications for each answer, and then aggregates the justifications for comprehensive confidence estimation. This framework can be integrated with existing confidence estimation approaches for superior calibration. Experimental results on six datasets of three tasks demonstrate the rationality and effectiveness of the proposed framework.
- Abstract(参考訳): 信頼度評価を目的とした信頼度推定は,大規模言語モデル(LLM),特にブラックボックスモデルの適用において重要である。
LLMの既存の信頼度推定は、その生成した誤った回答に対するLLMの過度な信頼のために調整されないのが一般的である。
過信問題に対処する既存のアプローチは、LLMが生み出す1つの回答の信頼性を単に考慮しているという重大な制限によって妨げられている。
この制限に対処するために、複数の候補回答の信頼性を徹底的に評価し、不正確な回答に対する過信を軽減する新しいパラダイムを提案する。
このパラダイムを基盤として,まず LLM に各回答の正当性を反映して提示するように指示し,さらに総合的信頼度推定のための正当性を集約する2段階の枠組みを導入する。
このフレームワークは、優れたキャリブレーションのための既存の信頼度推定手法と統合することができる。
3つのタスクの6つのデータセットに対する実験結果は、提案フレームワークの合理性と有効性を示している。
関連論文リスト
- When to Trust LLMs: Aligning Confidence with Response Quality [49.371218210305656]
大規模言語モデル(LLM)は、誤りまたは非意味なテキストを生成する。
信頼を言葉で表現して信頼性を伝える既存の手法は、しばしば失敗する。
我々はconfidence-Quality-ORDerserving alignment approach (CONQORD)を提案する。
論文 参考訳(メタデータ) (2024-04-26T09:42:46Z) - Enhancing Confidence Expression in Large Language Models Through Learning from Past Experience [41.06726400259579]
大規模言語モデル(LLM)は、様々な下流タスクで顕著なパフォーマンスを示している。
信頼表現能力を高めるために,過去の経験から学習する方法(LePe)を提案する。
論文 参考訳(メタデータ) (2024-04-16T06:47:49Z) - Fact-and-Reflection (FaR) Improves Confidence Calibration of Large
Language Models [89.20169610517381]
ファクト・アンド・リフレクション(FaR)プロンプトを提案し,LLMキャリブレーションを2ステップで改善する。
実験の結果、FaRはキャリブレーションが大幅に向上し、期待される誤差を23.5%下げた。
FaRは、信頼性の低いシナリオにおいて、言語的に関心を表現できる能力さえも持っています。
論文 参考訳(メタデータ) (2024-02-27T01:37:23Z) - A Comprehensive Study of Multilingual Confidence Estimation on Large
Language Models [22.927967194408634]
本稿では,大規模言語モデルにおける多言語信頼度推定(MlingConf)の包括的検討を紹介する。
本研究では,これらの信頼度スコアが,多言語間での自己抑止を通じてLLM性能を向上させる方法について検討する。
より正確な信頼度を求めるために,言語間信頼度推定法を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:20:06Z) - TrustScore: Reference-Free Evaluation of LLM Response Trustworthiness [58.721012475577716]
大規模言語モデル(LLM)は、様々な領域にまたがる印象的な能力を示しており、その実践的応用が急増している。
本稿では,行動整合性の概念に基づくフレームワークであるTrustScoreを紹介する。
論文 参考訳(メタデータ) (2024-02-19T21:12:14Z) - Reconfidencing LLMs from the Grouping Loss Perspective [53.46677002840564]
大規模言語モデル(LLM)は、自信のある音調で幻覚的な答えを生じさせる可能性がある。
近年の研究では、不確実性制御はキャリブレーションを超えて行わなければならないことが示されている。
そこで我々は,MistralとLLaMAの回答に対する信頼度を評価するために,知識ベースから導出した新しい評価データセットを構築した。
論文 参考訳(メタデータ) (2024-02-07T15:40:22Z) - The Calibration Gap between Model and Human Confidence in Large Language
Models [14.539888672603743]
大規模言語モデル(LLM)は、その予測がどの程度正確であるかを正確に評価し、伝達できるという意味で、十分に校正される必要がある。
最近の研究は、内部LCMの信頼性評価の品質に焦点を当てている。
本稿では,LLMの応答における外部人間の信頼度とモデルの内部信頼度との相違について検討する。
論文 参考訳(メタデータ) (2024-01-24T22:21:04Z) - Quantifying Uncertainty in Answers from any Language Model and Enhancing
their Trustworthiness [16.35655151252159]
本稿では,事前訓練された大規模言語モデルから悪い,投機的な回答を検出するBSDetectorを紹介する。
我々の不確実性定量化技術は,ブラックボックスAPIを通じてのみアクセス可能な LLM に対して有効である。
論文 参考訳(メタデータ) (2023-08-30T17:53:25Z) - Can LLMs Express Their Uncertainty? An Empirical Evaluation of Confidence Elicitation in LLMs [60.61002524947733]
従来の信頼性推論手法は、内部モデル情報やモデル微調整へのホワイトボックスアクセスに依存していた。
これにより、不確実性推定のためのブラックボックスアプローチの未解決領域を探索する必要性が高まっている。
言語的信頼を導き出すための戦略の推進、複数の応答を生成するためのサンプリング方法、一貫性を計算するための集約手法の3つの要素からなる体系的フレームワークを定義する。
論文 参考訳(メタデータ) (2023-06-22T17:31:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。