論文の概要: Conversational Text-to-SQL: An Odyssey into State-of-the-Art and
Challenges Ahead
- arxiv url: http://arxiv.org/abs/2302.11054v1
- Date: Tue, 21 Feb 2023 23:15:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 16:54:36.670918
- Title: Conversational Text-to-SQL: An Odyssey into State-of-the-Art and
Challenges Ahead
- Title(参考訳): Conversational Text-to-SQL:現状と課題へのオデュッセイ
- Authors: Sree Hari Krishnan Parthasarathi, Lu Zeng, Dilek Hakkani-Tur
- Abstract要約: State-of-the-art (SOTA) システムは、T5ファミリーのような大規模で訓練済み、微調整された言語モデルを使用する。
トレーニング中に個別のプロンプトを持つコヒーレントなタスクに対するマルチタスク(MT)により、特殊なテキストから3つのモデルよりも改善する。
我々は、領域と構成の一般化に起因する誤りを分解する研究を行う。
- 参考スコア(独自算出の注目度): 6.966624873109535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational, multi-turn, text-to-SQL (CoSQL) tasks map natural language
utterances in a dialogue to SQL queries. State-of-the-art (SOTA) systems use
large, pre-trained and finetuned language models, such as the T5-family, in
conjunction with constrained decoding. With multi-tasking (MT) over coherent
tasks with discrete prompts during training, we improve over specialized
text-to-SQL T5-family models. Based on Oracle analyses over n-best hypotheses,
we apply a query plan model and a schema linking algorithm as rerankers.
Combining MT and reranking, our results using T5-3B show absolute accuracy
improvements of 1.0% in exact match and 3.4% in execution match over a SOTA
baseline on CoSQL. While these gains consistently manifest at turn level,
context dependent turns are considerably harder. We conduct studies to tease
apart errors attributable to domain and compositional generalization, with the
latter remaining a challenge for multi-turn conversations, especially in
generating SQL with unseen parse trees.
- Abstract(参考訳): Conversational, multi-turn, text-to-SQL (CoSQL)タスクは、自然言語の発話をSQLクエリにマッピングする。
State-of-the-art (SOTA) システムは、制約付きデコードとともに、T5ファミリーのような大規模で訓練済み、微調整された言語モデルを使用する。
トレーニング中に個別のプロンプトを持つコヒーレントタスクに対するマルチタスク(MT)により、特殊テキストからSQL T5ファミリーモデルよりも改善する。
n-best仮説に関するOracleの分析に基づいて、クエリプランモデルとスキーマリンクアルゴリズムを再ランカとして適用する。
MTと再評価を組み合わせた結果,T5-3Bは精度が1.0%,CoSQLのSOTAベースラインで3.4%向上した。
これらの利得はターンレベルで一貫して現れるが、コンテキスト依存のターンは非常に難しい。
ドメインとコンポジションの一般化に起因したエラーを分離する研究を行い、後者はマルチターン会話、特に見当たらないパースツリーによるsql生成に挑戦している。
関連論文リスト
- SelECT-SQL: Self-correcting ensemble Chain-of-Thought for Text-to-SQL [3.422309388045878]
SelECT-は、チェーン・オブ・シンク、自己補正、アンサンブルの手法をアルゴリズムで組み合わせた、新しいインコンテキスト学習ソリューションである。
具体的には、GPTをベースLLMとして使用する場合、SelECT-Turboはスパイダーリーダーボードの開発セット上で84.2%の実行精度を達成する。
論文 参考訳(メタデータ) (2024-09-16T05:40:18Z) - SQL-PaLM: Improved Large Language Model Adaptation for Text-to-SQL (extended) [53.95151604061761]
本稿では,大規模言語モデル(LLM)を用いたテキスト・ツー・フィルタリングのフレームワークを提案する。
数発のプロンプトで、実行ベースのエラー解析による一貫性復号化の有効性について検討する。
命令の微調整により、チューニングされたLLMの性能に影響を及ぼす重要なパラダイムの理解を深める。
論文 参考訳(メタデータ) (2023-05-26T21:39:05Z) - UNITE: A Unified Benchmark for Text-to-SQL Evaluation [72.72040379293718]
テキスト・ツー・ドメイン・システムのためのUNIfiedベンチマークを導入する。
公開されているテキストからドメインへのデータセットと29Kデータベースで構成されている。
広く使われているSpiderベンチマークと比較すると、SQLパターンの3倍の増加が紹介されている。
論文 参考訳(メタデータ) (2023-05-25T17:19:52Z) - Graphix-T5: Mixing Pre-Trained Transformers with Graph-Aware Layers for
Text-to-SQL Parsing [56.232873134174056]
テキストからテキストへのパースにおける大きな課題の1つはドメインの一般化である。
そこで本研究では,テキスト・トゥ・テキスト・パーシングのための特殊なコンポーネントを備えた事前学習されたテキスト・ツー・テキスト・トランスフォーマー・モデルをさらに強化する方法について検討する。
この目的のために,レイヤを持つグラフ認識モデルによって拡張された新しいアーキテクチャ GRAPHIX-T5 を提案する。
論文 参考訳(メタデータ) (2023-01-18T13:29:05Z) - MIGA: A Unified Multi-task Generation Framework for Conversational
Text-to-SQL [48.34333725045152]
ほとんどの最先端の対話型テキスト生成手法は、T5のような事前訓練された言語モデル(PLM)と互換性がない。
PLMの対話型テキスト処理能力を活用した2段階統合MultI-task frAmeme(MIGA)を提案する。
論文 参考訳(メタデータ) (2022-12-19T07:14:32Z) - Towards Generalizable and Robust Text-to-SQL Parsing [77.18724939989647]
本稿では,タスク分解,知識獲得,知識構成からなる新しいTKKフレームワークを提案する。
このフレームワークは,Spider,SParC,Co.データセット上でのすべてのシナリオと最先端のパフォーマンスに有効であることを示す。
論文 参考訳(メタデータ) (2022-10-23T09:21:27Z) - N-Best Hypotheses Reranking for Text-To-SQL Systems [6.966624873109535]
Text-to-Taskは自然言語の発話を構造化クエリにマッピングする。
最先端のSOTA(State-of-the-art)システムは、大規模で訓練済みの言語モデルに頼っている。
発見は、再ランク付けによる潜在的な大幅な改善を示している。
論文 参考訳(メタデータ) (2022-10-19T15:35:06Z) - Weakly Supervised Text-to-SQL Parsing through Question Decomposition [53.22128541030441]
我々は最近提案されたQDMR(QDMR)という意味表現を活用している。
質問やQDMR構造(非専門家によって注釈付けされたり、自動予測されたりする)、回答が与えられたら、我々は自動的にsqlクエリを合成できる。
本結果は,NL-ベンチマークデータを用いて訓練したモデルと,弱い教師付きモデルが競合することを示す。
論文 参考訳(メタデータ) (2021-12-12T20:02:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。