論文の概要: Exploring Chain-of-Thought Style Prompting for Text-to-SQL
- arxiv url: http://arxiv.org/abs/2305.14215v1
- Date: Tue, 23 May 2023 16:32:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 14:43:22.952182
- Title: Exploring Chain-of-Thought Style Prompting for Text-to-SQL
- Title(参考訳): テキストからSQLへのチェーン型プロンプトの探索
- Authors: Chang-You Tai, Ziru Chen, Tianshu Zhang, Xiang Deng and Huan Sun
- Abstract要約: 大規模言語モデル(LLM)を用いたインコンテキスト学習は、幅広いタスクにおいて、より優れた数ショットのパフォーマンスのため、注目を集めている。
テキストからテキストへのパースにコンテキスト内学習を使おうとする試みのほとんどは、教師付きメソッドに遅れを取っている。
- 参考スコア(独自算出の注目度): 26.6505964133484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional supervised approaches for text-to-SQL parsing often require
large amounts of annotated data, which is costly to obtain in practice.
Recently, in-context learning with large language models (LLMs) has caught
increasing attention due to its superior few-shot performance in a wide range
of tasks. However, most attempts to use in-context learning for text-to-SQL
parsing still lag behind supervised methods. We hypothesize that the
under-performance is because text-to-SQL parsing requires complex, multi-step
reasoning. In this paper, we systematically study how to enhance the reasoning
ability of LLMs for text-to-SQL parsing through chain-of-thought (CoT) style
promptings including CoT prompting and Least-to-Most prompting. Our experiments
demonstrate that iterative prompting as in Least-to-Most prompting may be
unnecessary for text-to-SQL parsing and directly applying existing CoT style
prompting methods leads to error propagation issues. By improving multi-step
reasoning while avoiding much detailed information in the reasoning steps which
may lead to error propagation, our new method outperforms existing ones by 2.4
point absolute gains on the Spider development set.
- Abstract(参考訳): テキストからSQLへのパースのための従来の教師付きアプローチは、大量の注釈付きデータを必要とすることが多い。
近年,大規模言語モデル(LLM)を用いたインコンテキスト学習が注目されている。
しかし、テキストからSQLへのパースにコンテキスト内学習を使おうとする試みのほとんどは、教師付きメソッドに遅れを取っている。
我々は,テキストからSQLへの解析には複雑で多段階の推論が必要であるため,性能が低いと仮定する。
本稿では,CoTプロンプトやLast-to-Mostプロンプトを含むチェーン・オブ・シント(CoT)スタイルのプロンプトを通したテキスト-SQL解析におけるLCMの推論能力の向上について,体系的に検討する。
私たちの実験では、テキストからsqlへのパースや、既存のcotスタイルのプロンプトメソッドを直接適用するとエラー伝搬の問題が発生する可能性がある。
誤り伝播につながる可能性のある推論ステップにおいて,詳細な情報を避けつつ,多段階推論を改善することにより,本手法は既存手法を2.4ポイントの絶対値で上回る。
関連論文リスト
- RSL-SQL: Robust Schema Linking in Text-to-SQL Generation [51.00761167842468]
本稿では、双方向スキーマリンク、コンテキスト情報拡張、バイナリ選択戦略、マルチターン自己補正を組み合わせたRSLと呼ばれる新しいフレームワークを提案する。
ベンチマークの結果,オープンソースのソリューション間でのSOTA実行精度は67.2%,BIRDは87.9%,GPT-4オクルージョンは87.9%であった。
提案手法は,DeepSeekを同一のプロンプトで適用した場合,GPT-4ベースのテキスト・ツー・シークシステムよりも優れている。
論文 参考訳(メタデータ) (2024-10-31T16:22:26Z) - KeyInst: Keyword Instruction for Improving SQL Formulation in Text-to-SQL [0.5755004576310334]
KeyInstは、最後のクエリの一部である可能性が高いピボットキーワードに関するガイダンスを提供する。
SQLの定式化評価に特化して設計されたベンチマークであるStrucQLを開発した。
論文 参考訳(メタデータ) (2024-10-18T02:45:36Z) - SQLPrompt: In-Context Text-to-SQL with Minimal Labeled Data [54.69489315952524]
Prompt"は、Text-to-LLMのいくつかのショットプロンプト機能を改善するように設計されている。
Prompt"は、ラベル付きデータが少なく、テキスト内学習における従来のアプローチよりも大きなマージンで優れている。
emphPromptはテキスト内学習における従来の手法よりも優れており,ラベル付きデータはほとんどない。
論文 参考訳(メタデータ) (2023-11-06T05:24:06Z) - ACT-SQL: In-Context Learning for Text-to-SQL with
Automatically-Generated Chain-of-Thought [24.1320473171017]
大規模言語モデル(LLM)は、様々なドメインやタスクにおいて強力な能力を持つことが証明されている。
我々は、スキーマリンクに類似した方法で、チェーン・オブ・シンクレット(CoT)プロンプトを設計する。
我々は、テキストからテキストへのマルチターンタスクにコンテキスト内学習手法を拡張した。
論文 参考訳(メタデータ) (2023-10-26T12:16:25Z) - SQL-PaLM: Improved Large Language Model Adaptation for Text-to-SQL (extended) [53.95151604061761]
本稿では,大規模言語モデル(LLM)を用いたテキスト・ツー・フィルタリングのフレームワークを提案する。
数発のプロンプトで、実行ベースのエラー解析による一貫性復号化の有効性について検討する。
命令の微調整により、チューニングされたLLMの性能に影響を及ぼす重要なパラダイムの理解を深める。
論文 参考訳(メタデータ) (2023-05-26T21:39:05Z) - UNITE: A Unified Benchmark for Text-to-SQL Evaluation [72.72040379293718]
テキスト・ツー・ドメイン・システムのためのUNIfiedベンチマークを導入する。
公開されているテキストからドメインへのデータセットと29Kデータベースで構成されている。
広く使われているSpiderベンチマークと比較すると、SQLパターンの3倍の増加が紹介されている。
論文 参考訳(メタデータ) (2023-05-25T17:19:52Z) - Divide and Prompt: Chain of Thought Prompting for Text-to-SQL [0.03807314298073299]
CoT(Chain-of-Thought)は,大規模言語モデル(LLM)と組み合わせることで,複雑な推論タスクの促進的な結果が得られた。
本稿では,まずタスクをサブタスクに分割し,次にCoTを介して各サブタスクにアプローチするDivide-and-Promptを提案する。
論文 参考訳(メタデータ) (2023-04-23T06:52:35Z) - Towards Generalizable and Robust Text-to-SQL Parsing [77.18724939989647]
本稿では,タスク分解,知識獲得,知識構成からなる新しいTKKフレームワークを提案する。
このフレームワークは,Spider,SParC,Co.データセット上でのすべてのシナリオと最先端のパフォーマンスに有効であることを示す。
論文 参考訳(メタデータ) (2022-10-23T09:21:27Z) - S$^2$SQL: Injecting Syntax to Question-Schema Interaction Graph Encoder
for Text-to-SQL Parsers [66.78665327694625]
テキスト-関係解析のための質問-エンコーダグラフに構文を注入するS$2$を提案する。
また、疎結合制約を用いて多様なエッジ埋め込みを誘導し、ネットワークの性能をさらに向上させる。
スパイダーとロバスト性設定の実験は、提案手法が事前学習モデルを使用する場合、既存のすべての手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-03-14T09:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。