論文の概要: Towards Better Chain-of-Thought Prompting Strategies: A Survey
- arxiv url: http://arxiv.org/abs/2310.04959v1
- Date: Sun, 8 Oct 2023 01:16:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 14:07:16.934525
- Title: Towards Better Chain-of-Thought Prompting Strategies: A Survey
- Title(参考訳): より優れたチェーン・オブ・サート・プロンプティング戦略に向けた調査
- Authors: Zihan Yu, Liang He, Zhen Wu, Xinyu Dai, Jiajun Chen
- Abstract要約: CoT(Chain-of-Thought)は,大規模言語モデル(LLM)の促進戦略として使用すると,その印象的な強度を示す。
近年,CoTの促進効果が注目されている。
この調査は、関連する研究全般の参考になるかもしれない。
- 参考スコア(独自算出の注目度): 60.75420407216108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chain-of-Thought (CoT), a step-wise and coherent reasoning chain, shows its
impressive strength when used as a prompting strategy for large language models
(LLM). Recent years, the prominent effect of CoT prompting has attracted
emerging research. However, there still lacks of a systematic summary about key
factors of CoT prompting and comprehensive guide for prompts utilizing. For a
deeper understanding about CoT prompting, we survey on a wide range of current
research, presenting a systematic and comprehensive analysis on several factors
that may influence the effect of CoT prompting, and introduce how to better
apply it in different applications under these discussions. We further analyze
the challenges and propose some future directions about CoT prompting. This
survey could provide an overall reference on related research.
- Abstract(参考訳): ステップワイドでコヒーレントな推論チェーンであるChain-of-Thought(CoT)は,大規模言語モデル(LLM)の促進戦略として使用すると,その印象的な強度を示す。
近年,CoTの促進効果が注目されている。
しかし,cotプロンプトの重要な要因に関する体系的な要約や,プロンプト活用のための包括的ガイドが不足している。
CoTプロンプトに関するより深い理解を得るために、我々は、CoTプロンプトの効果に影響を与える可能性のあるいくつかの要因について、体系的で包括的な分析を行い、これらの議論の下で異なるアプリケーションに適用する方法を紹介します。
さらに課題を分析し,CoTプロンプトの今後の方向性を提案する。
この調査は、関連する研究全般の参考になるかもしれない。
関連論文リスト
- ERA-CoT: Improving Chain-of-Thought through Entity Relationship Analysis [21.45632002033121]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて、賞賛できる成果を達成している。
これらの課題は、多段階の推論を必要とする暗黙の関係の存在から生じる。
本稿では,エンティティ間の関係を捉えることで,LLMのコンテキスト理解を支援する新しいアプローチであるERA-CoTを提案する。
論文 参考訳(メタデータ) (2024-03-11T17:18:53Z) - Chain-of-Thought Reasoning Without Prompting [48.351650919819456]
CoT推論パスは、テキストデコーディングプロセスを変更するだけで、事前訓練されたLCMから引き出すことができる。
我々は、デコードパスにおけるCoTの存在は、モデルのデコードされた回答に対する高い信頼と相関していることを観察する。
論文 参考訳(メタデータ) (2024-02-15T18:55:41Z) - The Impact of Reasoning Step Length on Large Language Models [42.07147913947077]
思考の連鎖(CoT)は、大きな言語モデルの推論能力を改善する上で重要である。
プロンプトにおけるCoTの有効性と推論ステップの長さの相関について検討した。
論文 参考訳(メタデータ) (2024-01-10T04:37:38Z) - Igniting Language Intelligence: The Hitchhiker's Guide From
Chain-of-Thought Reasoning to Language Agents [80.5213198675411]
大規模言語モデル(LLM)は言語知能の分野を劇的に拡張した。
LLMは興味をそそるチェーン・オブ・シークレット(CoT)推論技術を活用し、答えを導き出す途中の中間ステップを定式化しなければならない。
最近の研究は、自律言語エージェントの開発を促進するためにCoT推論手法を拡張している。
論文 参考訳(メタデータ) (2023-11-20T14:30:55Z) - Thread of Thought Unraveling Chaotic Contexts [133.24935874034782]
思考のスレッド(ThoT)戦略は、人間の認知プロセスからインスピレーションを得ている。
実験では、他のプロンプト技術と比較して、ThoTは推論性能を著しく改善する。
論文 参考訳(メタデータ) (2023-11-15T06:54:44Z) - Stress Testing Chain-of-Thought Prompting for Large Language Models [0.16317061277456998]
本報告では,大規模言語モデル(LLM)の多段階推論能力を向上する上で,CoT(Chain-of-Thought)の有効性について検討する。
各種タスクにおけるGPT-3の性能に及ぼすCoT次数,CoT値,CoT演算子の影響を解析した。
論文 参考訳(メタデータ) (2023-09-28T17:21:33Z) - Enhancing Human-like Multi-Modal Reasoning: A New Challenging Dataset
and Comprehensive Framework [51.44863255495668]
マルチモーダル推論は、人間のような知性を示す人工知能システムの追求において重要な要素である。
提案するマルチモーダル推論(COCO-MMR)データセットは,オープンエンド質問の集合を包含する新しいデータセットである。
画像とテキストエンコーダを強化するために,マルチホップ・クロスモーダル・アテンションや文レベルのコントラスト学習などの革新的な手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T08:58:25Z) - Towards Understanding Chain-of-Thought Prompting: An Empirical Study of
What Matters [82.84696222087396]
CoT(Chain-of-Thought)の促進により,大規模言語モデル(LLM)の多段階推論能力が劇的に向上する
無効な実演でもCoT推論が可能であることを示す。
論文 参考訳(メタデータ) (2022-12-20T05:20:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。