論文の概要: MIGA: A Unified Multi-task Generation Framework for Conversational
Text-to-SQL
- arxiv url: http://arxiv.org/abs/2212.09278v1
- Date: Mon, 19 Dec 2022 07:14:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 14:41:44.895936
- Title: MIGA: A Unified Multi-task Generation Framework for Conversational
Text-to-SQL
- Title(参考訳): MIGA: Conversational Text-to-SQLのための統一マルチタスク生成フレームワーク
- Authors: Yingwen Fu, Wenjie Ou, Zhou Yu, and Yue Lin
- Abstract要約: ほとんどの最先端の対話型テキスト生成手法は、T5のような事前訓練された言語モデル(PLM)と互換性がない。
PLMの対話型テキスト処理能力を活用した2段階統合MultI-task frAmeme(MIGA)を提案する。
- 参考スコア(独自算出の注目度): 48.34333725045152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational text-to-SQL is designed to translate multi-turn natural
language questions into their corresponding SQL queries. Most state-of-the-art
conversational text- to-SQL methods are incompatible with generative
pre-trained language models (PLMs), such as T5. In this paper, we present a
two-stage unified MultI-task Generation frAmework (MIGA) that leverages PLMs'
ability to tackle conversational text-to-SQL. In the pre-training stage, MIGA
first decomposes the main task into several related sub-tasks and then unifies
them into the same sequence-to-sequence (Seq2Seq) paradigm with task-specific
natural language prompts to boost the main task from multi-task training. Later
in the fine-tuning stage, we propose four SQL perturbations to alleviate the
error propagation problem. MIGA tends to achieve state-of-the-art performance
on two benchmarks (SparC and CoSQL). We also provide extensive analyses and
discussions to shed light on some new perspectives for conversational
text-to-SQL.
- Abstract(参考訳): Conversational Text-to-SQLは、マルチターン自然言語質問を対応するSQLクエリに変換するように設計されている。
ほとんどの最先端の会話型テキスト-to-SQLメソッドは、T5のような生成事前学習言語モデル(PLM)と互換性がない。
本稿では,PLMのテキスト・トゥ・SQL処理能力を活用した2段階統合MultI-task frAmework(MIGA)を提案する。
事前学習段階では、MIGAはまずメインタスクをいくつかの関連するサブタスクに分解し、タスク固有の自然言語プロンプトで同じシーケンス・ツー・シーケンス(Seq2Seq)パラダイムに統一し、マルチタスクトレーニングからメインタスクを強化する。
その後、微調整段階において、エラー伝搬問題を緩和する4つのSQL摂動を提案する。
MIGAは2つのベンチマーク(SparCとCoSQL)で最先端のパフォーマンスを達成する傾向がある。
さらに,対話型テキストからsqlへの新たな視点について,詳細な分析や議論も行なっています。
関連論文リスト
- QDA-SQL: Questions Enhanced Dialogue Augmentation for Multi-Turn Text-to-SQL [14.321009553155285]
特定のドメインタスクのための細調整された大きな言語モデル(LLM)は、Text-to-Awerタスクで大きな成功を収めました。
LLMは、曖昧な質問や解決不可能な質問によって引き起こされるマルチターンのテキスト-問合せタスクにおいて、しばしば課題に直面している。
マルチターンテキスト-問合せタスクにおいて,複数種類の質問を処理するためのLLMの拡張が望まれる。
論文 参考訳(メタデータ) (2024-06-15T10:54:54Z) - Retrieval-augmented GPT-3.5-based Text-to-SQL Framework with
Sample-aware Prompting and Dynamic Revision Chain [21.593701177605652]
サンプルと動的リビジョンチェーンを含むテキスト・ツー・アウェア・プロンプト・フレームワークを提案する。
提案手法は,質問項目のサンプルと詳細な情報を含む。
人間の介入なしに実行可能で正確なスクルを生成するために、我々は、きめ細かいフィードバックを反復的に適応する動的リビジョンチェーンを設計する。
論文 参考訳(メタデータ) (2023-07-11T07:16:22Z) - SQL-PaLM: Improved Large Language Model Adaptation for Text-to-SQL (extended) [53.95151604061761]
本稿では,大規模言語モデル(LLM)を用いたテキスト・ツー・フィルタリングのフレームワークを提案する。
数発のプロンプトで、実行ベースのエラー解析による一貫性復号化の有効性について検討する。
命令の微調整により、チューニングされたLLMの性能に影響を及ぼす重要なパラダイムの理解を深める。
論文 参考訳(メタデータ) (2023-05-26T21:39:05Z) - Divide and Prompt: Chain of Thought Prompting for Text-to-SQL [0.03807314298073299]
CoT(Chain-of-Thought)は,大規模言語モデル(LLM)と組み合わせることで,複雑な推論タスクの促進的な結果が得られた。
本稿では,まずタスクをサブタスクに分割し,次にCoTを介して各サブタスクにアプローチするDivide-and-Promptを提案する。
論文 参考訳(メタデータ) (2023-04-23T06:52:35Z) - Conversational Text-to-SQL: An Odyssey into State-of-the-Art and
Challenges Ahead [6.966624873109535]
State-of-the-art (SOTA) システムは、T5ファミリーのような大規模で訓練済み、微調整された言語モデルを使用する。
トレーニング中に個別のプロンプトを持つコヒーレントなタスクに対するマルチタスク(MT)により、特殊なテキストから3つのモデルよりも改善する。
我々は、領域と構成の一般化に起因する誤りを分解する研究を行う。
論文 参考訳(メタデータ) (2023-02-21T23:15:33Z) - Towards Generalizable and Robust Text-to-SQL Parsing [77.18724939989647]
本稿では,タスク分解,知識獲得,知識構成からなる新しいTKKフレームワークを提案する。
このフレームワークは,Spider,SParC,Co.データセット上でのすべてのシナリオと最先端のパフォーマンスに有効であることを示す。
論文 参考訳(メタデータ) (2022-10-23T09:21:27Z) - A Survey on Text-to-SQL Parsing: Concepts, Methods, and Future
Directions [102.8606542189429]
テキストからコーパスへのパースの目的は、自然言語(NL)質問をデータベースが提供するエビデンスに基づいて、対応する構造化クエリ言語()に変換することである。
ディープニューラルネットワークは、入力NL質問から出力クエリへのマッピング関数を自動的に学習するニューラルジェネレーションモデルによって、このタスクを大幅に進歩させた。
論文 参考訳(メタデータ) (2022-08-29T14:24:13Z) - Bridging Cross-Lingual Gaps During Leveraging the Multilingual
Sequence-to-Sequence Pretraining for Text Generation [80.16548523140025]
プレトレインとファインチューンの間のギャップを埋めるために、コードスイッチングの復元タスクを追加して、バニラプレトレイン-ファインチューンパイプラインを拡張します。
提案手法は,言語間文表現距離を狭くし,簡単な計算コストで低周波語翻訳を改善する。
論文 参考訳(メタデータ) (2022-04-16T16:08:38Z) - Pay More Attention to History: A Context Modeling Strategy for
Conversational Text-to-SQL [8.038535788630542]
会話型テキスト・ツー・ドメインの最も難解な問題の1つは、マルチターンクエリのセマンティクスをモデル化することである。
本稿では,各ターンの追加による意味変化の明示的モデル化とコンテキスト全体の要約により,より優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2021-12-16T09:41:04Z) - Weakly Supervised Text-to-SQL Parsing through Question Decomposition [53.22128541030441]
我々は最近提案されたQDMR(QDMR)という意味表現を活用している。
質問やQDMR構造(非専門家によって注釈付けされたり、自動予測されたりする)、回答が与えられたら、我々は自動的にsqlクエリを合成できる。
本結果は,NL-ベンチマークデータを用いて訓練したモデルと,弱い教師付きモデルが競合することを示す。
論文 参考訳(メタデータ) (2021-12-12T20:02:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。