論文の概要: Confidence Matters: Revisiting Intrinsic Self-Correction Capabilities of
Large Language Models
- arxiv url: http://arxiv.org/abs/2402.12563v2
- Date: Tue, 27 Feb 2024 06:32:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 20:49:07.464922
- Title: Confidence Matters: Revisiting Intrinsic Self-Correction Capabilities of
Large Language Models
- Title(参考訳): 信頼の問題:大規模言語モデルの固有の自己補正能力を再考する
- Authors: Loka Li, Guangyi Chen, Yusheng Su, Zhenhao Chen, Yixuan Zhang, Eric
Xing, Kun Zhang
- Abstract要約: 大規模言語モデル(LLM)は、自己訂正能力への関心が高まっている。
本稿では,LLMの内在的自己補正に関する包括的研究について述べる。
We developed a "If-or-Else" prompting framework, designed to guide LLMs in evaluation of their "confidence"。
- 参考スコア(独自算出の注目度): 24.60203307672918
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The recent success of Large Language Models (LLMs) has catalyzed an
increasing interest in their self-correction capabilities. This paper presents
a comprehensive investigation into the intrinsic self-correction of LLMs,
attempting to address the ongoing debate about its feasibility. Our research
has identified an important latent factor - the "confidence" of LLMs - during
the self-correction process. Overlooking this factor may cause the models to
over-criticize themselves, resulting in unreliable conclusions regarding the
efficacy of self-correction. We have experimentally observed that LLMs possess
the capability to understand the "confidence" in their own responses. It
motivates us to develop an "If-or-Else" (IoE) prompting framework, designed to
guide LLMs in assessing their own "confidence", facilitating intrinsic
self-corrections. We conduct extensive experiments and demonstrate that our
IoE-based Prompt can achieve a consistent improvement regarding the accuracy of
self-corrected responses over the initial answers. Our study not only sheds
light on the underlying factors affecting self-correction in LLMs, but also
introduces a practical framework that utilizes the IoE prompting principle to
efficiently improve self-correction capabilities with "confidence". The code is
available at https://github.com/MBZUAI-CLeaR/IoE-Prompting.git.
- Abstract(参考訳): 近年の大規模言語モデル(llms)の成功は、自己修正機能への関心を高めている。
本稿では,LLMの内在的自己補正に関する包括的調査を行い,その実現可能性に関する議論に対処する。
我々の研究は、自己補正過程において重要な潜伏要因であるLSMの「信頼」を特定した。
この因子を見渡すと、モデルは自分自身を過度に批判し、自己補正の有効性に関する信頼できない結論をもたらす。
我々は,LSMが自身の反応において「自信」を理解する能力を持っていることを実験的に観察した。
if-or-else"(ioe)プロンプトフレームワークを開発する動機付けは、llmが自身の"信頼"を評価し、本質的な自己修正を促進するように設計されたことです。
IoEをベースとしたPromptは,初期回答に対する自己補正応答の精度に関して,一貫した改善を達成できることを示す。
本研究は, LLMの自己補正に影響を及ぼす要因を明らかにするだけでなく, IoEプロンプト原理を利用した「自信」による自己補正能力を効率的に向上する実践的枠組みも導入する。
コードはhttps://github.com/MBZUAI-CLeaR/IoE-Prompting.gitで公開されている。
関連論文リスト
- Fact-Level Confidence Calibration and Self-Correction [64.40105513819272]
本稿では,事実レベルでの信頼度と妥当性の重み付けを校正するFact-Levelフレームワークを提案する。
また,信頼度の高い自己補正(textbfConFix$)も開発した。
論文 参考訳(メタデータ) (2024-11-20T14:15:18Z) - Is Moral Self-correction An Innate Capability of Large Language Models? A Mechanistic Analysis to Self-correction [5.271054803267951]
我々は道徳的自己補正の基本的な2つの疑問に答えることを目指している。
本研究では,異なる自己補正成分が,隠れた状態に埋め込まれた道徳にどう介入するかを検討する。
本稿では,効果的な自己補正を必要とする自己識別フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-27T16:52:21Z) - Learning to Route with Confidence Tokens [43.63392143501436]
大規模言語モデルが回答の信頼性を確実に示すことができる範囲について検討する。
本稿では,LLMの信頼性を確実に表現するための軽量トレーニング戦略であるSelf-REFを提案する。
信頼度を言語化したり、トークンの確率を調べるといった従来の手法と比較して、信頼度トークンは下流のルーティングや拒否学習タスクにおいて著しく改善されていることを実証的に示す。
論文 参考訳(メタデータ) (2024-10-17T07:28:18Z) - Large Language Models have Intrinsic Self-Correction Ability [16.831123666582755]
大規模言語モデルは、性能劣化を引き起こす幻覚に悩まされる。
LLMのパフォーマンスを改善するための有望な解決策の1つは、LLMに世代ごとの回答の修正を求めることである。
内在的な自己補正は、外部知識を活用できないため、有望な方向と考えられる。
論文 参考訳(メタデータ) (2024-06-21T22:29:40Z) - SaySelf: Teaching LLMs to Express Confidence with Self-Reflective Rationales [29.33581578047835]
SaySelfは、大規模言語モデルに、より正確なきめ細かな信頼推定を表現するためのトレーニングフレームワークである。
さらに、SaySelf は LLM に対して、パラメトリック知識のギャップを明確に識別する自己反射的合理性を生成するよう指示する。
生成した自己反射的理性は合理的であり、キャリブレーションにさらに貢献できることを示す。
論文 参考訳(メタデータ) (2024-05-31T16:21:16Z) - A Theoretical Understanding of Self-Correction through In-context Alignment [51.622068973630796]
大規模言語モデル(LLM)は自己補正によって純粋に能力を向上させることができる。
LLMが比較的正確な自己評価を報酬として与える場合、文脈内応答を補充できることを示す。
これらの知見に触発されて,LLMジェイルブレイクに対する防御などの自己補正の応用についても解説した。
論文 参考訳(メタデータ) (2024-05-28T22:33:02Z) - Fact-and-Reflection (FaR) Improves Confidence Calibration of Large Language Models [84.94220787791389]
ファクト・アンド・リフレクション(FaR)プロンプトを提案し,LLMキャリブレーションを2ステップで改善する。
実験の結果、FaRはキャリブレーションが大幅に向上し、期待される誤差を23.5%下げた。
FaRは、信頼性の低いシナリオにおいて、言語的に関心を表現できる能力さえも持っています。
論文 参考訳(メタデータ) (2024-02-27T01:37:23Z) - Self-Alignment for Factuality: Mitigating Hallucinations in LLMs via Self-Evaluation [71.91287418249688]
大規模言語モデル(LLM)は、たとえ関連する知識を持っていたとしても、事実的不正確さに悩まされることが多い。
我々は,LLMの自己評価能力を活用し,現実性に向けてモデルを操る訓練信号を提供する。
提案手法は,Llamaファミリーモデルに対して,3つの重要な知識集約タスクにおいて,現実的精度を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-02-14T15:52:42Z) - On the Intersection of Self-Correction and Trust in Language Models [7.8833421052793256]
大規模言語モデル(LLM)は、複雑な認知タスクを実行する際、顕著な能力を示した。
近年,LLMの自己補正能力について検討している。
我々は信頼の2つの重要な側面、真理と毒性に焦点を当てた実験を行う。
論文 参考訳(メタデータ) (2023-11-06T00:04:12Z) - Large Language Models Cannot Self-Correct Reasoning Yet [78.16697476530994]
LLM(Large Language Models)は、非並列テキスト生成機能を備えた画期的な技術として登場した。
生成したコンテンツの正確性と適切性に関する懸念が続いている。
現代の方法論である自己補正がこれらの問題に対する対策として提案されている。
論文 参考訳(メタデータ) (2023-10-03T04:56:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。