論文の概要: UniSAr: A Unified Structure-Aware Autoregressive Language Model for
Text-to-SQL
- arxiv url: http://arxiv.org/abs/2203.07781v1
- Date: Tue, 15 Mar 2022 11:02:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 01:17:17.613409
- Title: UniSAr: A Unified Structure-Aware Autoregressive Language Model for
Text-to-SQL
- Title(参考訳): UniSAr: テキストからSQLへの統一構造対応自動回帰言語モデル
- Authors: Longxu Dou, Yan Gao, Mingyang Pan, Dingzirui Wang, Jian-Guang Lou,
Wanxiang Che, Dechen Zhan
- Abstract要約: We present UniSAr (Unified Structure-Aware Autoregressive Language Model), which is benefit of using a off-the-shelf language model。
具体的には、UniSArは既存の自己回帰モデルを拡張して、3つの非侵襲的拡張を組み込んで構造認識する。
- 参考スコア(独自算出の注目度): 48.21638676148253
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing text-to-SQL semantic parsers are typically designed for particular
settings such as handling queries that span multiple tables, domains or turns
which makes them ineffective when applied to different settings. We present
UniSAr (Unified Structure-Aware Autoregressive Language Model), which benefits
from directly using an off-the-shelf language model architecture and
demonstrates consistently high performance under different settings.
Specifically, UniSAr extends existing autoregressive language models to
incorporate three non-invasive extensions to make them structure-aware: (1)
adding structure mark to encode database schema, conversation context, and
their relationships; (2) constrained decoding to decode well structured SQL for
a given database schema; and (3) SQL completion to complete potential missing
JOIN relationships in SQL based on database schema. On seven well-known
text-to-SQL datasets covering multi-domain, multi-table and multi-turn, UniSAr
demonstrates highly comparable or better performance to the most advanced
specifically-designed text-to-SQL models. Importantly, our UniSAr is
non-invasive, such that other core model advances in text-to-SQL can also adopt
our extensions to further enhance performance.
- Abstract(参考訳): 既存のtext-to-sqlセマンティクスパーサは、通常、複数のテーブル、ドメイン、ターンにまたがるクエリを扱うような特定の設定のために設計されている。
そこで我々はunisar(unified structure-aware autoregressive language model)を提案する。
特に、UniSArは既存の自己回帰言語モデルを拡張して、3つの非侵襲的な拡張を組み込んで構造を認識させる。(1)データベーススキーマ、会話コンテキスト、およびそれらの関係をエンコードするための構造マークの追加、(2)データベーススキーマに対してよく構造化されたSQLをデコードするための制約付き復号化、(3)データベーススキーマに基づいた潜在的なJOIN関係をSQLで完遂するためのSQL補完。
マルチドメイン、マルチテーブル、マルチターンをカバーする7つのよく知られたテキスト-sqlデータセットにおいて、unisarは、最も高度な特別に設計されたテキスト-sqlモデルと非常に同等あるいは優れたパフォーマンスを示している。
重要なことは、私たちのUniSArは非侵襲的であるため、テキストからSQLへの他のコアモデルの進歩も、パフォーマンスをさらに向上するために私たちの拡張を採用することができます。
関連論文リスト
- SQL-GEN: Bridging the Dialect Gap for Text-to-SQL Via Synthetic Data And Model Merging [30.306023265985658]
あらゆる方言に対して高品質な合成学習データを生成するためのフレームワークを提案する。
本稿では,方言間の共有知識を活用する新しいMixture-of-Experts(MoE)を提案する。
論文 参考訳(メタデータ) (2024-08-22T20:50:48Z) - SQLPrompt: In-Context Text-to-SQL with Minimal Labeled Data [54.69489315952524]
Prompt"は、Text-to-LLMのいくつかのショットプロンプト機能を改善するように設計されている。
Prompt"は、ラベル付きデータが少なく、テキスト内学習における従来のアプローチよりも大きなマージンで優れている。
emphPromptはテキスト内学習における従来の手法よりも優れており,ラベル付きデータはほとんどない。
論文 参考訳(メタデータ) (2023-11-06T05:24:06Z) - SQL-PaLM: Improved Large Language Model Adaptation for Text-to-SQL (extended) [53.95151604061761]
本稿では,大規模言語モデル(LLM)を用いたテキスト・ツー・フィルタリングのフレームワークを提案する。
数発のプロンプトで、実行ベースのエラー解析による一貫性復号化の有効性について検討する。
命令の微調整により、チューニングされたLLMの性能に影響を及ぼす重要なパラダイムの理解を深める。
論文 参考訳(メタデータ) (2023-05-26T21:39:05Z) - UNITE: A Unified Benchmark for Text-to-SQL Evaluation [72.72040379293718]
テキスト・ツー・ドメイン・システムのためのUNIfiedベンチマークを導入する。
公開されているテキストからドメインへのデータセットと29Kデータベースで構成されている。
広く使われているSpiderベンチマークと比較すると、SQLパターンの3倍の増加が紹介されている。
論文 参考訳(メタデータ) (2023-05-25T17:19:52Z) - Prompting GPT-3.5 for Text-to-SQL with De-semanticization and Skeleton
Retrieval [17.747079214502673]
Text-to-は、自然言語の質問を構造化されたクエリ言語()に変換し、データベースから情報を取得するタスクである。
本稿では,テキスト・トゥ・テキストのための LLM ベースのフレームワークを提案する。
我々は,疑問骨格を抽出する非意味化機構を設計し,その構造的類似性に基づいて類似した例を検索する。
論文 参考訳(メタデータ) (2023-04-26T06:02:01Z) - A Survey on Text-to-SQL Parsing: Concepts, Methods, and Future
Directions [102.8606542189429]
テキストからコーパスへのパースの目的は、自然言語(NL)質問をデータベースが提供するエビデンスに基づいて、対応する構造化クエリ言語()に変換することである。
ディープニューラルネットワークは、入力NL質問から出力クエリへのマッピング関数を自動的に学習するニューラルジェネレーションモデルによって、このタスクを大幅に進歩させた。
論文 参考訳(メタデータ) (2022-08-29T14:24:13Z) - Proton: Probing Schema Linking Information from Pre-trained Language
Models for Text-to-SQL Parsing [66.55478402233399]
本稿では,ポアンカー距離測定に基づく探索手法を用いて,関係構造を抽出する枠組みを提案する。
スキーマリンクの一般的なルールベース手法と比較して,探索関係は意味的対応をしっかりと捉えることができることがわかった。
我々のフレームワークは3つのベンチマークで最先端のパフォーマンスを新たに設定する。
論文 参考訳(メタデータ) (2022-06-28T14:05:25Z) - RASAT: Integrating Relational Structures into Pretrained Seq2Seq Model
for Text-to-SQL [37.173390754207766]
本稿では,リレーショナルアウェア・セルフアテンションを付加したTransformer seq2seqアーキテクチャを提案する。
我々のモデルは、文献にはほとんど全ての種類の既存の関係を組み込むことができる。
論文 参考訳(メタデータ) (2022-05-14T06:27:40Z) - HIE-SQL: History Information Enhanced Network for Context-Dependent
Text-to-SQL Semantic Parsing [1.343950231082215]
ヒストリー発話と最後のsqlクエリの両方からコンテキスト依存情報を利用するヒストリー情報拡張テキスト・トゥ・ザ・アート・モデル(HIE-)を提案する。
本研究では,2つの文脈依存型テキスト・トゥ・ザ・アーティカル・ベンチマークにおいて,HIE-の性能を著しく向上させる手法を提案する。
論文 参考訳(メタデータ) (2022-03-14T11:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。