論文の概要: Tab-CoT: Zero-shot Tabular Chain of Thought
- arxiv url: http://arxiv.org/abs/2305.17812v1
- Date: Sun, 28 May 2023 20:49:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 16:38:48.535187
- Title: Tab-CoT: Zero-shot Tabular Chain of Thought
- Title(参考訳): tab-cot: 思考のゼロショットタブチェーン
- Authors: Ziqi Jin and Wei Lu
- Abstract要約: 本研究では,複雑な推論プロセスを高度に構造化された方法で明示的にモデル化できるTab-CoTを提案する。
その単純さにもかかわらず、我々のアプローチは複数の次元にまたがる推論を行うことができることを示す。
我々は、様々な推論タスクに関する広範な実験を通じて、アプローチの強いゼロショットと少数ショットの能力を実証する。
- 参考スコア(独自算出の注目度): 7.558415495951758
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The chain-of-though (CoT) prompting methods were successful in various
natural language processing (NLP) tasks thanks to their ability to unveil the
underlying complex reasoning processes. Such reasoning processes typically
exhibit implicitly structured steps. Recent efforts also started investigating
methods to encourage more explicitly structured reasoning procedures to be
captured. In this work, we propose Tab-CoT, a novel tabular-format CoT
prompting method, which allows the complex reasoning process to be explicitly
modelled in a highly structured manner. Despite its simplicity, we show that
our approach is capable of performing reasoning across multiple dimensions
(i.e., both rows and columns). We demonstrate our approach's strong zero-shot
and few-shot capabilities through extensive experiments on a range of reasoning
tasks.
- Abstract(参考訳): 様々な自然言語処理(NLP)タスクにおいて、基礎となる複雑な推論プロセスを公開する能力により、チェーン・オブ・ファインメント(CoT)のプロンプト手法が成功した。
このような推論プロセスは通常、暗黙的に構造化されたステップを示す。
近年、より明確に構造化された推論手順を取り込むように促す方法を調査し始めた。
本研究では,複雑な推論処理を高度に構造化された方法で明示的にモデル化できる新しい表形式CoTプロンプトであるTab-CoTを提案する。
その単純さにもかかわらず、我々のアプローチは複数の次元(行と列の両方)にわたる推論を行うことができることを示す。
我々は、様々な推論タスクに関する広範な実験を通じて、アプローチの強いゼロショットと少数ショットの能力を実証する。
関連論文リスト
- Watch Your Steps: Observable and Modular Chains of Thought [36.79118554877861]
プログラムトレースプロンプティング(Program Trace Prompting)と呼ばれる,思考の連鎖(CoT)の変種を提案する。
CoTのパワー、一般性、柔軟性を保ちながら、より観察可能な説明をする。
Program Trace Promptingは多くのタスクに適用でき、BIG-Bench Hardベンチマークの23種類のタスクに対して強力な結果が得られる。
論文 参考訳(メタデータ) (2024-09-17T23:47:20Z) - A Hopfieldian View-based Interpretation for Chain-of-Thought Reasoning [48.51969964676017]
CoT(Chain-of-Thought)は、大規模言語モデルの推論性能を高める上で重要な位置を占めている。
本稿では,CoTの精度を制御するためのリード・アンド・コントロル手法を提案する。
論文 参考訳(メタデータ) (2024-06-18T04:07:13Z) - Pattern-Aware Chain-of-Thought Prompting in Large Language Models [26.641713417293538]
CoT(Chain-of- Thought)は言語モデルに複雑な多段階推論を誘導する。
このようなタスクにおいて、基礎となる推論パターンがより重要な役割を果たすことを示す。
本稿では,デモパターンの多様性を考慮したプロンプト手法であるPattern-Aware CoTを提案する。
論文 参考訳(メタデータ) (2024-04-23T07:50:00Z) - Chain-of-Thought Reasoning Without Prompting [40.92854235219315]
CoT推論パスは、テキストデコーディングプロセスを変更するだけで、事前訓練された言語モデルから引き出すことができる。
復号経路におけるCoTの存在は、モデルの復号解に対する高い信頼と相関する。
論文 参考訳(メタデータ) (2024-02-15T18:55:41Z) - Parrot Mind: Towards Explaining the Complex Task Reasoning of Pretrained Large Language Models with Template-Content Structure [66.33623392497599]
テンプレート・コンテント構造(T-C構造)と呼ばれる構造は指数レベルから線形レベルへの可能な空間を減少させることができることを示す。
モデルがタスク構成を達成でき、線形から対数への学習に必要なスペースをさらに削減できることを実証する。
論文 参考訳(メタデータ) (2023-10-09T06:57:45Z) - Recursion of Thought: A Divide-and-Conquer Approach to Multi-Context
Reasoning with Language Models [58.41943058963672]
我々はRecursion of Thought (RoT)と呼ばれる新しい推論フレームワークを提案する。
RoTはいくつかの特別なトークンを導入し、モデルが出力してコンテキスト関連の操作をトリガーする。
GPT-3を含む複数のアーキテクチャの実験により、RoTは問題を解くためにLMの推論能力を劇的に改善した。
論文 参考訳(メタデータ) (2023-06-12T06:34:16Z) - Boosting Language Models Reasoning with Chain-of-Knowledge Prompting [18.326858925174605]
CoK(Chain-of-Knowledge)は、構造三重の形で明確な知識証拠を引き出すことを目的としている。
さらに, 推論チェーンの信頼性を推定するF2-Verification法を導入する。
広汎な実験により,本手法はコモンセンス,事実,記号,算術的推論タスクの性能をさらに向上させることができることが示された。
論文 参考訳(メタデータ) (2023-06-10T12:42:36Z) - Synthetic Prompting: Generating Chain-of-Thought Demonstrations for
Large Language Models [121.54462976635743]
大規模言語モデルはチェーン・オブ・ソート・プロンプトを使用して様々な推論タスクを実行でき、ステップ・バイ・ステップのデモを通じて回答を見つけることができる。
そこで本研究では,手作りの例を数種類活用して,モデルにさらに多くの例を生成する手法であるSynthetic promptingを紹介する。
本手法は数値的,記号的,アルゴリズム的推論タスクにおいて評価し,既存のプロンプト手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-02-01T17:33:12Z) - Towards Understanding Chain-of-Thought Prompting: An Empirical Study of
What Matters [82.84696222087396]
CoT(Chain-of-Thought)の促進により,大規模言語モデル(LLM)の多段階推論能力が劇的に向上する
無効な実演でもCoT推論が可能であることを示す。
論文 参考訳(メタデータ) (2022-12-20T05:20:54Z) - Complexity-Based Prompting for Multi-Step Reasoning [72.0057198610614]
大規模言語モデルに対して,多段階推論を行うための課題について検討する。
中心的な疑問は、どの推論例が最も効果的なプロンプトを作るかである。
多段階推論のためのシンプルで効果的な例選択方式である複雑性ベースのプロンプトを提案する。
論文 参考訳(メタデータ) (2022-10-03T05:33:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。