論文の概要: QDA-SQL: Questions Enhanced Dialogue Augmentation for Multi-Turn Text-to-SQL
- arxiv url: http://arxiv.org/abs/2406.10593v1
- Date: Sat, 15 Jun 2024 10:54:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 23:43:29.535727
- Title: QDA-SQL: Questions Enhanced Dialogue Augmentation for Multi-Turn Text-to-SQL
- Title(参考訳): QDA-SQL: マルチターンテキストからSQLへの対話強化に関する質問
- Authors: Yinggang Sun, Ziming Guo, Haining Yu, Chuanyi Liu, Xiang Li, Bingxuan Wang, Xiangzhan Yu, Tiancheng Zhao,
- Abstract要約: 微調整されたモデルは、マルチターンのテキスト検索タスクでしばしば課題に直面します。
マルチターンテキスト-問合せタスクにおいて,複数種類の質問を処理するためのLLMの拡張が望まれる。
- 参考スコア(独自算出の注目度): 14.321009553155285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-tuning large language models (LLMs) for specific domain tasks has achieved great success in Text-to-SQL tasks. However, these fine-tuned models often face challenges with multi-turn Text-to-SQL tasks caused by ambiguous or unanswerable questions. It is desired to enhance LLMs to handle multiple types of questions in multi-turn Text-to-SQL tasks. To address this, we propose a novel data augmentation method, called QDA-SQL, which generates multiple types of multi-turn Q\&A pairs by using LLMs. In QDA-SQL, we introduce a novel data augmentation method incorporating validation and correction mechanisms to handle complex multi-turn Text-to-SQL tasks. Experimental results demonstrate that QDA-SQL enables fine-tuned models to exhibit higher performance on SQL statement accuracy and enhances their ability to handle complex, unanswerable questions in multi-turn Text-to-SQL tasks. The generation script and test set are released at https://github.com/mcxiaoxiao/QDA-SQL.
- Abstract(参考訳): 特定のドメインタスクのための微調整された大きな言語モデル(LLM)は、Text-to-SQLタスクで大きな成功を収めた。
しかし、これらの微調整されたモデルは、曖昧な質問や解決不可能な質問によって引き起こされるマルチターンのテキスト-SQLタスクの課題に直面することが多い。
マルチターンテキスト-SQLタスクにおいて、複数のタイプの質問を処理するためにLLMを強化することが望まれる。
そこで本研究では,LLMを用いて複数種類のマルチターンQ\&Aペアを生成するQDA-SQLという新しいデータ拡張手法を提案する。
QDA-SQLでは、複雑なマルチターンテキスト-SQLタスクの処理にバリデーションと修正機構を組み込んだ新しいデータ拡張手法を提案する。
実験により、QDA-SQLは、微調整されたモデルでSQLステートメントの精度が向上し、マルチターンテキスト・トゥ・SQLタスクにおいて、複雑で不可解な質問を処理する能力が向上することを示した。
生成スクリプトとテストセットはhttps://github.com/mcxiaoxiao/QDA-SQLでリリースされる。
関連論文リスト
- CoE-SQL: In-Context Learning for Multi-Turn Text-to-SQL with Chain-of-Editions [22.493487741249716]
大規模言語モデル(LLM)は、様々なドメインやタスクにおいて印象的な機能を持つことが実証されている。
マルチターンテキスト・ツー・タスクにおけるプロンプト設計の問題について検討し,LLMの推論能力の向上を図る。
論文 参考訳(メタデータ) (2024-05-04T16:56:14Z) - SQLPrompt: In-Context Text-to-SQL with Minimal Labeled Data [54.69489315952524]
Prompt"は、Text-to-LLMのいくつかのショットプロンプト機能を改善するように設計されている。
Prompt"は、ラベル付きデータが少なく、テキスト内学習における従来のアプローチよりも大きなマージンで優れている。
emphPromptはテキスト内学習における従来の手法よりも優れており,ラベル付きデータはほとんどない。
論文 参考訳(メタデータ) (2023-11-06T05:24:06Z) - ACT-SQL: In-Context Learning for Text-to-SQL with
Automatically-Generated Chain-of-Thought [24.1320473171017]
大規模言語モデル(LLM)は、様々なドメインやタスクにおいて強力な能力を持つことが証明されている。
我々は、スキーマリンクに類似した方法で、チェーン・オブ・シンクレット(CoT)プロンプトを設計する。
我々は、テキストからテキストへのマルチターンタスクにコンテキスト内学習手法を拡張した。
論文 参考訳(メタデータ) (2023-10-26T12:16:25Z) - SQL-PaLM: Improved Large Language Model Adaptation for Text-to-SQL (extended) [53.95151604061761]
本稿では,大規模言語モデル(LLM)を用いたテキスト・ツー・フィルタリングのフレームワークを提案する。
数発のプロンプトで、実行ベースのエラー解析による一貫性復号化の有効性について検討する。
命令の微調整により、チューニングされたLLMの性能に影響を及ぼす重要なパラダイムの理解を深める。
論文 参考訳(メタデータ) (2023-05-26T21:39:05Z) - Divide and Prompt: Chain of Thought Prompting for Text-to-SQL [0.03807314298073299]
CoT(Chain-of-Thought)は,大規模言語モデル(LLM)と組み合わせることで,複雑な推論タスクの促進的な結果が得られた。
本稿では,まずタスクをサブタスクに分割し,次にCoTを介して各サブタスクにアプローチするDivide-and-Promptを提案する。
論文 参考訳(メタデータ) (2023-04-23T06:52:35Z) - MIGA: A Unified Multi-task Generation Framework for Conversational
Text-to-SQL [48.34333725045152]
ほとんどの最先端の対話型テキスト生成手法は、T5のような事前訓練された言語モデル(PLM)と互換性がない。
PLMの対話型テキスト処理能力を活用した2段階統合MultI-task frAmeme(MIGA)を提案する。
論文 参考訳(メタデータ) (2022-12-19T07:14:32Z) - Know What I don't Know: Handling Ambiguous and Unanswerable Questions
for Text-to-SQL [36.5089235153207]
既存のtext-to-Yourself は任意のユーザ質問に対して "plausible" クエリを生成する。
本稿では,不明瞭かつ解決不可能な例を自動的に生成する,シンプルで効果的な生成手法を提案する。
実験結果から,実例と生成例の両方において,本モデルが最も優れた結果が得られることが示された。
論文 参考訳(メタデータ) (2022-12-17T15:32:00Z) - A Survey on Text-to-SQL Parsing: Concepts, Methods, and Future
Directions [102.8606542189429]
テキストからコーパスへのパースの目的は、自然言語(NL)質問をデータベースが提供するエビデンスに基づいて、対応する構造化クエリ言語()に変換することである。
ディープニューラルネットワークは、入力NL質問から出力クエリへのマッピング関数を自動的に学習するニューラルジェネレーションモデルによって、このタスクを大幅に進歩させた。
論文 参考訳(メタデータ) (2022-08-29T14:24:13Z) - Weakly Supervised Text-to-SQL Parsing through Question Decomposition [53.22128541030441]
我々は最近提案されたQDMR(QDMR)という意味表現を活用している。
質問やQDMR構造(非専門家によって注釈付けされたり、自動予測されたりする)、回答が与えられたら、我々は自動的にsqlクエリを合成できる。
本結果は,NL-ベンチマークデータを用いて訓練したモデルと,弱い教師付きモデルが競合することを示す。
論文 参考訳(メタデータ) (2021-12-12T20:02:42Z) - Dual Reader-Parser on Hybrid Textual and Tabular Evidence for Open
Domain Question Answering [78.9863753810787]
世界の知識は構造化データベースに保存されている。
クエリ言語は、複雑な推論を必要とする質問に答えるだけでなく、完全な説明可能性を提供することができる。
論文 参考訳(メタデータ) (2021-08-05T22:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。