論文の概要: Interleaving Pre-Trained Language Models and Large Language Models for
Zero-Shot NL2SQL Generation
- arxiv url: http://arxiv.org/abs/2306.08891v1
- Date: Thu, 15 Jun 2023 06:50:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 16:25:46.732893
- Title: Interleaving Pre-Trained Language Models and Large Language Models for
Zero-Shot NL2SQL Generation
- Title(参考訳): ゼロショットNL2SQL生成のための事前学習言語モデルと大規模言語モデル
- Authors: Zihui Gu, Ju Fan, Nan Tang, Songyue Zhang, Yuxin Zhang, Zui Chen, Lei
Cao, Guoliang Li, Sam Madden, Xiaoyong Du
- Abstract要約: ZeroNL2は、新しい環境に適応する自然言語のtosqlの実現に不可欠である。
既存のアプローチは、データに基づいた微調整事前学習言語モデル(PLM)か、ChatGPTのような固定された大言語モデル(LLM)をガイドするプロンプトを使用する。
ゼロショットNL2をサポートするために, PLM と LLM の相補的な利点を組み合わせた ZeroNL2 フレームワークを提案する。
- 参考スコア(独自算出の注目度): 23.519727682763644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot NL2SQL is crucial in achieving natural language to SQL that is
adaptive to new environments (e.g., new databases, new linguistic phenomena or
SQL structures) with zero annotated NL2SQL samples from such environments.
Existing approaches either fine-tune pre-trained language models (PLMs) based
on annotated data or use prompts to guide fixed large language models (LLMs)
such as ChatGPT. PLMs can perform well in schema alignment but struggle to
achieve complex reasoning, while LLMs is superior in complex reasoning tasks
but cannot achieve precise schema alignment. In this paper, we propose a
ZeroNL2SQL framework that combines the complementary advantages of PLMs and
LLMs for supporting zero-shot NL2SQL. ZeroNL2SQL first uses PLMs to generate an
SQL sketch via schema alignment, then uses LLMs to fill the missing information
via complex reasoning. Moreover, in order to better align the generated SQL
queries with values in the given database instances, we design a predicate
calibration method to guide the LLM in completing the SQL sketches based on the
database instances and select the optimal SQL query via an execution-based
strategy. Comprehensive experiments show that ZeroNL2SQL can achieve the best
zero-shot NL2SQL performance on real-world benchmarks. Specifically, ZeroNL2SQL
outperforms the state-of-the-art PLM-based methods by 3.2% to 13% and exceeds
LLM-based methods by 10% to 20% on execution accuracy.
- Abstract(参考訳): ゼロショットNL2SQLは、新しい環境(例えば、新しいデータベース、新しい言語現象またはSQL構造)に適応するSQLへの自然言語の達成に不可欠である。
既存のアプローチは、注釈付きデータに基づいた微調整済み言語モデル(PLM)か、ChatGPTのような固定された大きな言語モデル(LLM)をガイドするプロンプトを使用する。
PLMはスキーマアライメントにおいて良好に機能するが、複雑な推論を行うのに苦労する一方、LCMは複雑な推論タスクでは優れているが、正確なスキーマアライメントは達成できない。
本稿では、ゼロショットNL2SQLをサポートするために、PLMとLMの相補的な利点を組み合わせたZeroNL2SQLフレームワークを提案する。
ZeroNL2SQLはまず、スキーマアライメントを介してSQLスケッチを生成するためにPLMを使用し、続いてLCMを使用して、複雑な推論を通じて不足した情報を埋める。
さらに,生成したSQLクエリと所定のデータベースインスタンスの値との整合性を改善するため,データベースインスタンスに基づいたSQLスケッチの完了を誘導する述語校正法を設計し,実行ベースの戦略で最適なSQLクエリを選択する。
総合的な実験により、ZeroNL2SQLは実世界のベンチマークで最高のゼロショットNL2SQL性能を達成できることが示された。
具体的には、ZeroNL2SQLは最先端のPLMベースのメソッドを3.2%から13%上回り、LCMベースのメソッドを10%から20%上回っている。
関連論文リスト
- Relational Database Augmented Large Language Model [59.38841050766026]
大規模言語モデル(LLM)は多くの自然言語処理(NLP)タスクに優れる。
彼らは、トレーニングや教師付き微調整プロセスを通じてのみ、新しい知識を取り入れることができる。
この正確で最新のプライベート情報は、通常リレーショナルデータベースに格納される。
論文 参考訳(メタデータ) (2024-07-21T06:19:10Z) - RB-SQL: A Retrieval-based LLM Framework for Text-to-SQL [48.516004807486745]
文脈内学習を伴う大規模言語モデル(LLM)は、テキスト・ツー・タスクの性能を大幅に改善した。
In-context prompt Engineering のための新しい検索ベースフレームワーク RB- を提案する。
実験により,我々のモデルは,公開データセットのBIRDとSpiderの競合ベースラインよりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2024-07-11T08:19:58Z) - PURPLE: Making a Large Language Model a Better SQL Writer [14.627323505405327]
NL2タスクに必要な論理演算子構成を含む実演を検索することで精度を向上させるPURPLEを提案する。
PURPLEは、一般的なNL2ベンチマークの検証セット上で80.5%の正確な一致精度と87.8%の実行一致精度という、最先端の新たなパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-03-29T07:01:29Z) - PET-SQL: A Prompt-Enhanced Two-Round Refinement of Text-to-SQL with Cross-consistency [19.067737007347613]
スパイダーベンチマークで新しいSOTA結果が得られ、実行精度は87.6%である。
提案手法は, 87.6%の精度で, スパイダーベンチマークで新しいSOTA結果が得られる。
論文 参考訳(メタデータ) (2024-03-13T02:32:41Z) - Knowledge-to-SQL: Enhancing SQL Generation with Data Expert LLM [15.888784472807775]
既存のメソッドは、クエリを生成するための大規模言語モデル(LLM)の包括的な機能に依存している。
我々は,すべてのテキスト・トゥ・モデルに対して適切な知識を利用する知識・ツー・データ・エキスパート・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T09:10:04Z) - Blar-SQL: Faster, Stronger, Smaller NL2SQL [0.0]
データベースの理解とクエリ生成において,タスクの分解が大規模言語モデル(LLM)に大きな利益をもたらすことを示す。
我々は、より多くの情報を限られたコンテキストに適合させるために、スキーマをチャンクに分割する新しいフレームワークを提案する。
その結果,GPT-4はGPT-4の135倍,90倍,100倍以上の速さであった。
論文 参考訳(メタデータ) (2024-01-04T16:50:52Z) - Fine-Tuning Language Models for Context-Specific SQL Query Generation [0.0]
本稿では,自然言語を tosql クエリに変換するタスクに対して,オープンソースの大規模言語モデル (LLM) を微調整する新しい手法を提案する。
我々は、Snowflake SQLとGoogleの方言に合わせて、合成データセットに基づいて訓練されたsqlクエリ生成に特化したモデルを紹介する。
提案手法では,GPT-4を用いてコンテキスト固有のデータセットを生成し,リソース制約を最適化するためにLoRa技術を用いて3つのオープンソースLCM(Starcoder Plus,Code-Llama,Mistral)を微調整する。
微調整モデルでは、ベースラインGPと比較してゼロショット設定では優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-04T18:04:27Z) - SQLPrompt: In-Context Text-to-SQL with Minimal Labeled Data [54.69489315952524]
Prompt"は、Text-to-LLMのいくつかのショットプロンプト機能を改善するように設計されている。
Prompt"は、ラベル付きデータが少なく、テキスト内学習における従来のアプローチよりも大きなマージンで優れている。
emphPromptはテキスト内学習における従来の手法よりも優れており,ラベル付きデータはほとんどない。
論文 参考訳(メタデータ) (2023-11-06T05:24:06Z) - SQL-PaLM: Improved Large Language Model Adaptation for Text-to-SQL (extended) [53.95151604061761]
本稿では,大規模言語モデル(LLM)を用いたテキスト・ツー・フィルタリングのフレームワークを提案する。
数発のプロンプトで、実行ベースのエラー解析による一貫性復号化の有効性について検討する。
命令の微調整により、チューニングされたLLMの性能に影響を及ぼす重要なパラダイムの理解を深める。
論文 参考訳(メタデータ) (2023-05-26T21:39:05Z) - UNITE: A Unified Benchmark for Text-to-SQL Evaluation [72.72040379293718]
テキスト・ツー・ドメイン・システムのためのUNIfiedベンチマークを導入する。
公開されているテキストからドメインへのデータセットと29Kデータベースで構成されている。
広く使われているSpiderベンチマークと比較すると、SQLパターンの3倍の増加が紹介されている。
論文 参考訳(メタデータ) (2023-05-25T17:19:52Z) - Weakly Supervised Text-to-SQL Parsing through Question Decomposition [53.22128541030441]
我々は最近提案されたQDMR(QDMR)という意味表現を活用している。
質問やQDMR構造(非専門家によって注釈付けされたり、自動予測されたりする)、回答が与えられたら、我々は自動的にsqlクエリを合成できる。
本結果は,NL-ベンチマークデータを用いて訓練したモデルと,弱い教師付きモデルが競合することを示す。
論文 参考訳(メタデータ) (2021-12-12T20:02:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。