論文の概要: Confidence Matters: Revisiting Intrinsic Self-Correction Capabilities of
Large Language Models
- arxiv url: http://arxiv.org/abs/2402.12563v2
- Date: Tue, 27 Feb 2024 06:32:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 20:49:07.464922
- Title: Confidence Matters: Revisiting Intrinsic Self-Correction Capabilities of
Large Language Models
- Title(参考訳): 信頼の問題:大規模言語モデルの固有の自己補正能力を再考する
- Authors: Loka Li, Guangyi Chen, Yusheng Su, Zhenhao Chen, Yixuan Zhang, Eric
Xing, Kun Zhang
- Abstract要約: 大規模言語モデル(LLM)は、自己訂正能力への関心が高まっている。
本稿では,LLMの内在的自己補正に関する包括的研究について述べる。
We developed a "If-or-Else" prompting framework, designed to guide LLMs in evaluation of their "confidence"。
- 参考スコア(独自算出の注目度): 24.60203307672918
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The recent success of Large Language Models (LLMs) has catalyzed an
increasing interest in their self-correction capabilities. This paper presents
a comprehensive investigation into the intrinsic self-correction of LLMs,
attempting to address the ongoing debate about its feasibility. Our research
has identified an important latent factor - the "confidence" of LLMs - during
the self-correction process. Overlooking this factor may cause the models to
over-criticize themselves, resulting in unreliable conclusions regarding the
efficacy of self-correction. We have experimentally observed that LLMs possess
the capability to understand the "confidence" in their own responses. It
motivates us to develop an "If-or-Else" (IoE) prompting framework, designed to
guide LLMs in assessing their own "confidence", facilitating intrinsic
self-corrections. We conduct extensive experiments and demonstrate that our
IoE-based Prompt can achieve a consistent improvement regarding the accuracy of
self-corrected responses over the initial answers. Our study not only sheds
light on the underlying factors affecting self-correction in LLMs, but also
introduces a practical framework that utilizes the IoE prompting principle to
efficiently improve self-correction capabilities with "confidence". The code is
available at https://github.com/MBZUAI-CLeaR/IoE-Prompting.git.
- Abstract(参考訳): 近年の大規模言語モデル(llms)の成功は、自己修正機能への関心を高めている。
本稿では,LLMの内在的自己補正に関する包括的調査を行い,その実現可能性に関する議論に対処する。
我々の研究は、自己補正過程において重要な潜伏要因であるLSMの「信頼」を特定した。
この因子を見渡すと、モデルは自分自身を過度に批判し、自己補正の有効性に関する信頼できない結論をもたらす。
我々は,LSMが自身の反応において「自信」を理解する能力を持っていることを実験的に観察した。
if-or-else"(ioe)プロンプトフレームワークを開発する動機付けは、llmが自身の"信頼"を評価し、本質的な自己修正を促進するように設計されたことです。
IoEをベースとしたPromptは,初期回答に対する自己補正応答の精度に関して,一貫した改善を達成できることを示す。
本研究は, LLMの自己補正に影響を及ぼす要因を明らかにするだけでなく, IoEプロンプト原理を利用した「自信」による自己補正能力を効率的に向上する実践的枠組みも導入する。
コードはhttps://github.com/MBZUAI-CLeaR/IoE-Prompting.gitで公開されている。
関連論文リスト
- When to Trust LLMs: Aligning Confidence with Response Quality [49.371218210305656]
大規模言語モデル(LLM)は、誤りまたは非意味なテキストを生成する。
信頼を言葉で表現して信頼性を伝える既存の手法は、しばしば失敗する。
我々はconfidence-Quality-ORDerserving alignment approach (CONQORD)を提案する。
論文 参考訳(メタデータ) (2024-04-26T09:42:46Z) - Toward Self-Improvement of LLMs via Imagination, Searching, and Criticizing [56.75702900542643]
大規模言語モデルの自己改善のためのAlphaLLMを紹介する。
モンテカルロ木探索(MCTS)とLLMを統合し、自己改善ループを確立する。
実験の結果,AlphaLLM は付加アノテーションを使わずに LLM の性能を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T15:21:34Z) - Enhancing Confidence Expression in Large Language Models Through Learning from Past Experience [41.06726400259579]
大規模言語モデル(LLM)は、様々な下流タスクで顕著なパフォーマンスを示している。
信頼表現能力を高めるために,過去の経験から学習する方法(LePe)を提案する。
論文 参考訳(メタデータ) (2024-04-16T06:47:49Z) - Think Twice Before Assure: Confidence Estimation for Large Language Models through Reflection on Multiple Answers [90.71323430635593]
本稿では,複数の候補回答の信頼性を徹底的に評価し,不正確な回答に対する過度な信頼を緩和する新しいパラダイムを提案する。
まず, LLMに各回答の正当性を反映し, 正当性を付与するように指示し, 総合的信頼度推定のための正当性を集約する2段階の枠組みを導入する。
論文 参考訳(メタデータ) (2024-03-15T02:38:26Z) - Fact-and-Reflection (FaR) Improves Confidence Calibration of Large
Language Models [89.20169610517381]
ファクト・アンド・リフレクション(FaR)プロンプトを提案し,LLMキャリブレーションを2ステップで改善する。
実験の結果、FaRはキャリブレーションが大幅に向上し、期待される誤差を23.5%下げた。
FaRは、信頼性の低いシナリオにおいて、言語的に関心を表現できる能力さえも持っています。
論文 参考訳(メタデータ) (2024-02-27T01:37:23Z) - Self-Alignment for Factuality: Mitigating Hallucinations in LLMs via
Self-Evaluation [75.01017649868614]
大規模言語モデル(LLM)は、たとえ関連する知識を持っていたとしても、事実的不正確さに悩まされることが多い。
我々は,LLMの自己評価能力を活用し,現実性に向けてモデルを操る訓練信号を提供する。
提案手法は,Llamaファミリーモデルに対して,3つの重要な知識集約タスクにおいて,現実的精度を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-02-14T15:52:42Z) - The Calibration Gap between Model and Human Confidence in Large Language
Models [14.539888672603743]
大規模言語モデル(LLM)は、その予測がどの程度正確であるかを正確に評価し、伝達できるという意味で、十分に校正される必要がある。
最近の研究は、内部LCMの信頼性評価の品質に焦点を当てている。
本稿では,LLMの応答における外部人間の信頼度とモデルの内部信頼度との相違について検討する。
論文 参考訳(メタデータ) (2024-01-24T22:21:04Z) - On the Intersection of Self-Correction and Trust in Language Models [7.8833421052793256]
大規模言語モデル(LLM)は、複雑な認知タスクを実行する際、顕著な能力を示した。
近年,LLMの自己補正能力について検討している。
我々は信頼の2つの重要な側面、真理と毒性に焦点を当てた実験を行う。
論文 参考訳(メタデータ) (2023-11-06T00:04:12Z) - Large Language Models Cannot Self-Correct Reasoning Yet [78.16697476530994]
LLM(Large Language Models)は、非並列テキスト生成機能を備えた画期的な技術として登場した。
生成したコンテンツの正確性と適切性に関する懸念が続いている。
現代の方法論である自己補正がこれらの問題に対する対策として提案されている。
論文 参考訳(メタデータ) (2023-10-03T04:56:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。