論文の概要: Least-to-Most Prompting Enables Complex Reasoning in Large Language
Models
- arxiv url: http://arxiv.org/abs/2205.10625v1
- Date: Sat, 21 May 2022 15:34:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 14:07:32.704888
- Title: Least-to-Most Prompting Enables Complex Reasoning in Large Language
Models
- Title(参考訳): 大規模言語モデルにおけるLast-to-Most Promptingによる複雑な推論
- Authors: Denny Zhou, Nathanael Sch\"arli, Le Hou, Jason Wei, Nathan Scales,
Xuezhi Wang, Dale Schuurmans, Olivier Bousquet, Quoc Le, Ed Chi
- Abstract要約: 本稿では,大規模言語モデルによる多段階推論処理の高速化を実現する新しいプロンプト戦略を提案する。
最小限のプロンプトは、プロンプトコンテキストで見られるものよりも難しい例に一般化できることを示す。
顕著な実証的な結果は、最小限のプロンプトを持つ GPT-3 コードダヴィンチモデルがSCAN ベンチマークを99.7%の精度で解くことができることである。
- 参考スコア(独自算出の注目度): 52.43389741908774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel prompting strategy, least-to-most prompting, that enables
large language models to better perform multi-step reasoning tasks.
Least-to-most prompting first reduces a complex problem into a list of
subproblems, and then sequentially solves the subproblems, whereby solving a
given subproblem is facilitated by the model's answers to previously solved
subproblems. Experiments on symbolic manipulation, compositional generalization
and numerical reasoning demonstrate that least-to-most prompting can generalize
to examples that are harder than those seen in the prompt context,
outperforming other prompting-based approaches by a large margin. A notable
empirical result is that the GPT-3 code-davinci-002 model with
least-to-most-prompting can solve the SCAN benchmark with an accuracy of 99.7%
using 14 examples. As a comparison, the neural-symbolic models in the
literature specialized for solving SCAN are trained with the full training set
of more than 15,000 examples.
- Abstract(参考訳): 本稿では,大規模言語モデルによる多段階推論処理の高速化を実現する新しいプロンプト戦略を提案する。
最下位のプロンプトは、まず、複雑な問題を部分問題のリストに減らし、その後、順次部分問題を解く。
シンボリック操作、組成一般化、数値推論の実験により、最小プロンプトはプロンプトコンテキストで見られるものよりも難しい例に一般化することができ、他のプロンプトベースアプローチを大きなマージンで上回っている。
GPT-3 コード-ダヴィンチ-002 の最小プロンプトのモデルでは、14例を用いて99.7%の精度でSCANベンチマークを解くことができる。
比較として、SCANの解法に特化した文献におけるニューラルシンボリックモデルは、15,000以上の例からなる完全なトレーニングセットで訓練される。
関連論文リスト
- Chain of Thoughtlessness? An Analysis of CoT in Planning [17.329365493094542]
推論問題におけるLLM(Large Language Model)のパフォーマンスは通常、分布から一般化しない。
本稿では,古典的計画領域であるBlocksworldの問題に対する思考連鎖のケーススタディを示す。
それらのプロンプトが問題クラスに特有である場合、一連の思考プロンプトから有意義なパフォーマンス改善が得られます。
論文 参考訳(メタデータ) (2024-05-08T02:48:28Z) - An Examination on the Effectiveness of Divide-and-Conquer Prompting in Large Language Models [28.139780691709266]
本研究では,DACプロンプトが性能向上に寄与する特定のタスクの特定を支援する。
実験結果が理論解析と一致した2つのケース(大整数算術と実数検証)を提示する。
論文 参考訳(メタデータ) (2024-02-08T02:37:30Z) - A Hybrid System for Systematic Generalization in Simple Arithmetic
Problems [70.91780996370326]
本稿では,記号列に対する合成的および体系的推論を必要とする算術的問題を解くことができるハイブリッドシステムを提案する。
提案システムは,最も単純なケースを含むサブセットでのみ訓練された場合においても,ネストした数式を正確に解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-29T18:35:41Z) - Faith and Fate: Limits of Transformers on Compositionality [109.79516190693415]
3つの代表的構成課題にまたがる変圧器大言語モデルの限界について検討する。
これらのタスクは、問題をサブステップに分割し、これらのステップを正確な答えに合成する必要があります。
実験結果から,多段階合成推論を線形化部分グラフマッチングに還元することにより,トランスフォーマーLLMが構成課題を解くことが示唆された。
論文 参考訳(メタデータ) (2023-05-29T23:24:14Z) - Successive Prompting for Decomposing Complex Questions [50.00659445976735]
最近の研究は、大規模言語モデル(LM)の機能を活用して、数ショットで複雑な質問応答を行う。
そこでは、複雑なタスクを単純なタスクに繰り返し分解し、それを解決し、最終解を得るまでプロセスを繰り返します。
我々の最良のモデル(逐次プロンプト付き)は、DROPデータセットの数ショットバージョンにおいて、5%の絶対F1の改善を実現します。
論文 参考訳(メタデータ) (2022-12-08T06:03:38Z) - PAL: Program-aided Language Models [112.94785609781503]
自然言語問題を理解するために,プログラム支援言語モデル(PaL)を提案する。
PaLはソリューションステップをPythonインタプリタのようなプログラムランタイムにオフロードする。
私たちは12のベンチマークで新しい最先端の結果を設定しました。
論文 参考訳(メタデータ) (2022-11-18T18:56:13Z) - Complexity-Based Prompting for Multi-Step Reasoning [72.0057198610614]
大規模言語モデルに対して,多段階推論を行うための課題について検討する。
中心的な疑問は、どの推論例が最も効果的なプロンプトを作るかである。
多段階推論のためのシンプルで効果的な例選択方式である複雑性ベースのプロンプトを提案する。
論文 参考訳(メタデータ) (2022-10-03T05:33:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。