論文の概要: Automatic Chain of Thought Prompting in Large Language Models
- arxiv url: http://arxiv.org/abs/2210.03493v1
- Date: Fri, 7 Oct 2022 12:28:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 12:49:09.548368
- Title: Automatic Chain of Thought Prompting in Large Language Models
- Title(参考訳): 大規模言語モデルにおける思考促進の自動連鎖
- Authors: Zhuosheng Zhang, Aston Zhang, Mu Li, Alex Smola
- Abstract要約: 大規模言語モデル(LLM)は中間的推論ステップを生成することで複雑な推論を行うことができる。
「ステップ・バイ・ステップ」は、デモのための推論チェーンを1つずつ生成します。
自動CoTプロンプト法を提案する。
- 参考スコア(独自算出の注目度): 20.54898481696753
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large language models (LLMs) can perform complex reasoning by generating
intermediate reasoning steps. Providing these steps for prompting
demonstrations is called chain-of-thought (CoT) prompting. CoT prompting has
two major paradigms. One leverages a simple prompt like "Let's think step by
step" to facilitate step-by-step thinking before answering a question. The
other uses a few manual demonstrations one by one, each composed of a question
and a reasoning chain that leads to an answer. The superior performance of the
second paradigm hinges on the hand-crafting of task-specific demonstrations one
by one. We show that such manual efforts may be eliminated by leveraging LLMs
with the "Let's think step by step" prompt to generate reasoning chains for
demonstrations one by one, i.e., let's think not just step by step, but also
one by one. However, these generated chains often come with mistakes. To
mitigate the effect of such mistakes, we find that diversity matters for
automatically constructing demonstrations. We propose an automatic CoT
prompting method: Auto-CoT. It samples questions with diversity and generates
reasoning chains to construct demonstrations. On ten public benchmark reasoning
tasks with GPT-3, Auto-CoT consistently matches or exceeds the performance of
the CoT paradigm that requires manual designs of demonstrations. Code is
available at https://github.com/amazon-research/auto-cot
- Abstract(参考訳): 大規模言語モデル(LLM)は中間的推論ステップを生成することで複雑な推論を行うことができる。
デモを促すためのこれらのステップをチェーン・オブ・シント(CoT)プロンプトと呼ぶ。
CoTプロンプトには2つの主要なパラダイムがある。
質問に答える前にステップバイステップの思考を容易にするために、"ステップバイステップ"のような単純なプロンプトを活用する。
もうひとつは,質問と回答につながる推論チェーンで構成された,手動によるデモをひとつずつ実施するものだ。
第2パラダイムの優れたパフォーマンスは、タスク固有のデモンストレーションをひとつずつ手作りすることにある。
このような手作業は、LLMを"ステップバイステップ"のプロンプトで活用することで、デモの推論チェーンを1つずつ生成することで、排除される可能性がある、すなわち、ステップバイステップだけでなく、ひとつずつ考えることにしましょう。
しかし、これらの生成した連鎖はしばしば誤りを伴う。
このような誤りの影響を緩和するためには、自動的なデモンストレーション構築に多様性が重要である。
自動CoTプロンプト法を提案する。
多様性のある質問をサンプリングし、推論チェーンを生成してデモを構築する。
GPT-3による10の公開ベンチマーク推論タスクでは、Auto-CoTはデモの手動設計を必要とするCoTパラダイムのパフォーマンスと一貫して一致している。
コードはhttps://github.com/amazon-research/auto-cotで入手できる。
関連論文リスト
- Watch Your Steps: Observable and Modular Chains of Thought [36.79118554877861]
プログラムトレースプロンプティング(Program Trace Prompting)と呼ばれる,思考の連鎖(CoT)の変種を提案する。
CoTのパワー、一般性、柔軟性を保ちながら、より観察可能な説明をする。
Program Trace Promptingは多くのタスクに適用でき、BIG-Bench Hardベンチマークの23種類のタスクに対して強力な結果が得られる。
論文 参考訳(メタデータ) (2024-09-17T23:47:20Z) - Self-Harmonized Chain of Thought [8.540320749424172]
CoT(Chain-of-Thought)のプロンプトにより、大きな言語モデルが中間ステップを介して複雑な推論を行うことができることが明らかになった。
ECHOは3つの推論領域で最高の全体的なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-09-06T06:57:04Z) - Pattern-Aware Chain-of-Thought Prompting in Large Language Models [26.641713417293538]
CoT(Chain-of- Thought)は言語モデルに複雑な多段階推論を誘導する。
このようなタスクにおいて、基礎となる推論パターンがより重要な役割を果たすことを示す。
本稿では,デモパターンの多様性を考慮したプロンプト手法であるPattern-Aware CoTを提案する。
論文 参考訳(メタデータ) (2024-04-23T07:50:00Z) - Generalizable Chain-of-Thought Prompting in Mixed-task Scenarios with
Large Language Models [68.05046964022844]
大規模言語モデル(LLM)は、チェーン・オブ・ソート(CoT)のプロンプトを活用することで、顕著な推論機能を明らかにしている。
本稿では,入力質問の種類が不明な混合タスクシナリオにおいて,一般化可能なCoTプロンプト機構であるGeM-CoTを提案する。
この技術設計により、GeM-CoTは10の公開推論タスクと23のBBHタスクにおいて優れた一般化能力と優れたパフォーマンスを同時に享受する。
論文 参考訳(メタデータ) (2023-10-10T15:10:03Z) - Symbolic Chain-of-Thought Distillation: Small Models Can Also "Think" Step-by-Step [133.60124577507727]
思考の連鎖は、素数大言語モデルに彼らの予測の合理化を口頭で示すよう促す。
オーダーオブマグニチュードの小さなモデルでも、チェーンオブ思想のプロンプトの恩恵を受けられることを示す。
そこで我々は,より大規模な教師モデルから抽出した合理化に基づいて,より小さな学生モデルを訓練する方法であるChain-of-Thought Distillation (SCoTD)を紹介した。
論文 参考訳(メタデータ) (2023-06-24T20:15:07Z) - Enhancing Chain-of-Thoughts Prompting with Iterative Bootstrapping in Large Language Models [81.01397924280612]
大規模言語モデル (LLM) は、ステップ・バイ・ステップ・チェーン・オブ・シークレット (CoT) をデモンストレーションとして組み込むことで、様々な推論タスクにおいて高い効果的な性能を達成することができる。
本稿では,イターCoT (Iterative bootstrapping in Chain-of-Thoughts Prompting) を導入する。
論文 参考訳(メタデータ) (2023-04-23T13:54:39Z) - Synthetic Prompting: Generating Chain-of-Thought Demonstrations for
Large Language Models [121.54462976635743]
大規模言語モデルはチェーン・オブ・ソート・プロンプトを使用して様々な推論タスクを実行でき、ステップ・バイ・ステップのデモを通じて回答を見つけることができる。
そこで本研究では,手作りの例を数種類活用して,モデルにさらに多くの例を生成する手法であるSynthetic promptingを紹介する。
本手法は数値的,記号的,アルゴリズム的推論タスクにおいて評価し,既存のプロンプト手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-02-01T17:33:12Z) - Complexity-Based Prompting for Multi-Step Reasoning [72.0057198610614]
大規模言語モデルに対して,多段階推論を行うための課題について検討する。
中心的な疑問は、どの推論例が最も効果的なプロンプトを作るかである。
多段階推論のためのシンプルで効果的な例選択方式である複雑性ベースのプロンプトを提案する。
論文 参考訳(メタデータ) (2022-10-03T05:33:27Z) - Automatic Label Sequence Generation for Prompting Sequence-to-sequence
Models [105.4590533269863]
完全自動プロンプト方式であるAutoSeqを提案する。
我々はシーケンス・ツー・シーケンス・モデルに自然言語プロンプトを採用する。
本手法は,数ショット学習におけるシーケンス・ツー・シーケンスモデルの可能性を明らかにする。
論文 参考訳(メタデータ) (2022-09-20T01:35:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。