論文の概要: Get an A in Math: Progressive Rectification Prompting
- arxiv url: http://arxiv.org/abs/2312.06867v1
- Date: Mon, 11 Dec 2023 22:25:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 17:57:58.796634
- Title: Get an A in Math: Progressive Rectification Prompting
- Title(参考訳): 数学でaを得る:プログレッシブな修正を促す
- Authors: Zhenyu Wu, Meng Jiang, Chao Shen
- Abstract要約: CoT(Chain-of-Thought)プロンプト法により,大規模言語モデル(LLM)が推論経路を生成し,算術語問題(MWP)を解くことが可能になった。
77.3から90.5までの8MWPデータセットの平均精度を向上させるために,PRP (Progressive Rectification Prompting) という新しい手法を提案する。
- 参考スコア(独自算出の注目度): 42.09762345892869
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chain-of-Thought (CoT) prompting methods have enabled large language models
(LLMs) to generate reasoning paths and solve math word problems (MWPs).
However, they are sensitive to mistakes in the paths, as any mistake can result
in an incorrect answer. We propose a novel method named Progressive
Rectification Prompting (PRP) to improve average accuracy on eight MWP datasets
from 77.3 to 90.5. Given an initial answer from CoT, PRP iterates a
verify-then-rectify process to progressively identify incorrect answers and
rectify the reasoning paths. With the most likely correct answer, the LLM
predicts a masked numerical value in the question; if the prediction does not
match the masked value, the answer is likely incorrect. Then the LLM is
prompted to re-generate the reasoning path hinted with a set of incorrect
answers to prevent itself from repeating previous mistakes. PRP achieves the
best performance compared against the CoT methods. Our implementation is made
publicly available at https://wzy6642.github.io/prp.github.io/.
- Abstract(参考訳): CoT(Chain-of-Thought)は,大規模言語モデル(LLM)で推論経路を生成し,数学語問題(MWP)を解く手法である。
しかし、どの誤りも誤った答えをもたらす可能性があるため、パス内の間違いに敏感である。
77.3から90.5までの8MWPデータセットの平均精度を向上させるために,PRP(Progressive Rectification Prompting)と呼ばれる新しい手法を提案する。
cotからの最初の回答が与えられると、prpはverify-then-rectifyプロセスを繰り返して、不正確な答えを段階的に識別し、推論パスを正す。
LLMは最も正しい確率で、この質問においてマスクされた数値を予測し、もし予測がマスクされた値と一致しないなら、その答えは誤っている可能性が高い。
次に、LCMは、前回のミスを繰り返しないように、誤った回答のセットで示唆された推論パスを再生成するよう促される。
PRPはCoT法と比較して最高の性能を達成する。
実装はhttps://wzy6642.github.io/prp.github.io/で公開しています。
関連論文リスト
- LLM Robustness Against Misinformation in Biomedical Question Answering [50.98256373698759]
探索拡張生成(RAG)アプローチは,質問応答のための大規模言語モデル(LLM)の折り畳みを低減するために用いられる。
バイオメディカル質問に対する誤報に対する4つのLDMの有効性とロバスト性を評価した。
論文 参考訳(メタデータ) (2024-10-27T16:23:26Z) - When is the consistent prediction likely to be a correct prediction? [34.41365254799998]
より長い推論テキストから導出される一貫した回答は、より正しい可能性が高いことを示す。
これは主に、LLMが自律的にチェーン・オブ・シント(CoT)スタイルの推論を生成できることを実証するためである。
より長い応答を生成するLLMの確率は非常に低く、出力長を条件とした復号化戦略の必要性を強調した。
論文 参考訳(メタデータ) (2024-07-08T09:37:27Z) - Large Language Models Can Self-Correct with Key Condition Verification [39.67266805233599]
単純で効果的な検証手法は,大規模言語モデルの本質的な能力を解き放つことができる。
本稿では, 誤応答を段階的に識別し, 訂正する反復的検証列補正フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T01:43:45Z) - Learning From Mistakes Makes LLM Better Reasoner [106.48571828587728]
大規模言語モデル(LLM)は、最近数学の問題を解く際、顕著な推論能力を示した。
この研究は、LLMが人間の学習プロセスに似たMistAkes(LEMA)から学習できるかどうかを探求する。
論文 参考訳(メタデータ) (2023-10-31T17:52:22Z) - GRACE: Discriminator-Guided Chain-of-Thought Reasoning [75.35436025709049]
本稿では, 正しい推論手順を導出するために, GRACE (CorrectnEss Discriminator) を用いたチェーン・オブ・シークレット・リAsoningを提案する。
GRACEは、正しいステップと間違ったステップに対して対照的な損失で訓練された判別器を採用しており、復号時に次のステップ候補を採点するために使用される。
論文 参考訳(メタデータ) (2023-05-24T09:16:51Z) - RCOT: Detecting and Rectifying Factual Inconsistency in Reasoning by
Reversing Chain-of-Thought [56.558892336235914]
Reversing Chain-of-Thought (RCoT) は、大規模言語モデルの推論能力を改善する新しい手法である。
RCoTは生成したソリューションにおける事実の不整合を自動的に検出し、修正する。
手書きのきめ細かいフィードバックがLLMの推論能力を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-05-19T08:02:52Z) - MathPrompter: Mathematical Reasoning using Large Language Models [7.953723258038284]
大規模言語モデル (LLM) は算術的推論タスクを解く際の性能に制限がある。
MathPrompterはZero-shot-of- Thoughtプロンプト技術を使って複数の代数式やPython関数を生成し、異なる方法で同じ数学問題を解く。
論文 参考訳(メタデータ) (2023-03-04T04:43:49Z) - Large Language Models are Better Reasoners with Self-Verification [48.534270563880845]
大規模言語モデル(LLM)は、いくつかの自然言語処理タスクにおいて強力な推論能力を示している。
思考の連鎖(CoT)を促進させるLLMは、個別のミスに非常に敏感な、多段階のプロンプトと多段階の予測を必要とする。
また,LLMにも同様な自己検証能力があることを示す。
論文 参考訳(メタデータ) (2022-12-19T15:51:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。