論文の概要: GP: Context-free Grammar Pre-training for Text-to-SQL Parsers
- arxiv url: http://arxiv.org/abs/2101.09901v2
- Date: Sun, 28 Feb 2021 15:35:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 19:11:53.904373
- Title: GP: Context-free Grammar Pre-training for Text-to-SQL Parsers
- Title(参考訳): GP:text-to-SQLパーサのための文脈自由文法事前学習
- Authors: Liang Zhao, Hexin Cao, Yunsong Zhao
- Abstract要約: Grammar Pre-training (GP) は質問とデータベースの深い関係を解読するために提案されている。
実験により,本手法は訓練中に収束しやすく,堅牢性に優れることがわかった。
- 参考スコア(独自算出の注目度): 7.652782364282768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new method for Text-to-SQL parsing, Grammar Pre-training (GP), is proposed
to decode deep relations between question and database. Firstly, to better
utilize the information of databases, a random value is added behind a question
word which is recognized as a column, and the new sentence serves as the model
input. Secondly, initialization of vectors for decoder part is optimized, with
reference to the former encoding so that question information can be concerned.
Finally, a new approach called flooding level is adopted to get the non-zero
training loss which can generalize better results. By encoding the sentence
with GRAPPA and RAT-SQL model, we achieve better performance on spider, a
cross-DB Text-to-SQL dataset (72.8 dev, 69.8 test). Experiments show that our
method is easier to converge during training and has excellent robustness.
- Abstract(参考訳): 質問とデータベースの深い関係を解読するための新しいテキスト-SQL解析手法であるGrammar Pre-training(GP)を提案する。
まず、データベースの情報をよりよく活用するために、列として認識される質問語の後ろにランダム値を追加し、新しい文がモデル入力として機能する。
次に、デコーダ部に対するベクトルの初期化を前者符号化を参照して最適化し、質問情報を関連付ける。
最後に、フラッディングレベルと呼ばれる新しいアプローチを採用し、より良い結果を一般化できる非ゼロのトレーニング損失を得る。
文をGRAPPAとRAT-SQLモデルでエンコードすることで、クロスDB Text-to-SQLデータセット(72.8 dev, 69.8 test)であるクモのパフォーマンスを向上する。
実験により,本手法は訓練中に収束しやすく,堅牢性に優れることがわかった。
関連論文リスト
- UNITE: A Unified Benchmark for Text-to-SQL Evaluation [72.72040379293718]
テキスト・ツー・ドメイン・システムのためのUNIfiedベンチマークを導入する。
公開されているテキストからドメインへのデータセットと29Kデータベースで構成されている。
広く使われているSpiderベンチマークと比較すると、SQLパターンの3倍の増加が紹介されている。
論文 参考訳(メタデータ) (2023-05-25T17:19:52Z) - STAR: SQL Guided Pre-Training for Context-dependent Text-to-SQL Parsing [64.80483736666123]
文脈依存型テキスト・ツー・パースのための新しい事前学習フレームワークSTARを提案する。
さらに,STARを事前学習するための大規模コンテキスト依存型テキスト対話コーパスを構築した。
大規模な実験により、STARは2つの下流ベンチマークで新しい最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2022-10-21T11:30:07Z) - A Survey on Text-to-SQL Parsing: Concepts, Methods, and Future
Directions [102.8606542189429]
テキストからコーパスへのパースの目的は、自然言語(NL)質問をデータベースが提供するエビデンスに基づいて、対応する構造化クエリ言語()に変換することである。
ディープニューラルネットワークは、入力NL質問から出力クエリへのマッピング関数を自動的に学習するニューラルジェネレーションモデルによって、このタスクを大幅に進歩させた。
論文 参考訳(メタデータ) (2022-08-29T14:24:13Z) - S$^2$SQL: Injecting Syntax to Question-Schema Interaction Graph Encoder
for Text-to-SQL Parsers [66.78665327694625]
テキスト-関係解析のための質問-エンコーダグラフに構文を注入するS$2$を提案する。
また、疎結合制約を用いて多様なエッジ埋め込みを誘導し、ネットワークの性能をさらに向上させる。
スパイダーとロバスト性設定の実験は、提案手法が事前学習モデルを使用する場合、既存のすべての手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-03-14T09:49:15Z) - Weakly Supervised Text-to-SQL Parsing through Question Decomposition [53.22128541030441]
我々は最近提案されたQDMR(QDMR)という意味表現を活用している。
質問やQDMR構造(非専門家によって注釈付けされたり、自動予測されたりする)、回答が与えられたら、我々は自動的にsqlクエリを合成できる。
本結果は,NL-ベンチマークデータを用いて訓練したモデルと,弱い教師付きモデルが競合することを示す。
論文 参考訳(メタデータ) (2021-12-12T20:02:42Z) - Structure-Grounded Pretraining for Text-to-SQL [75.19554243393814]
本稿では,テキストからLARGEへの構造化事前学習フレームワーク(G)について述べる。
カラムグラウンド、バリューグラウンド、カラム値マッピングといった新しい予測タスクのセットを特定し、それらをテキストテーブルエンコーダの事前訓練に活用する。
論文 参考訳(メタデータ) (2020-10-24T04:35:35Z) - Hybrid Ranking Network for Text-to-SQL [9.731436359069493]
そこで我々は,Hybrid Ranking Network (HydraNet) という手法を提案する。
データセットの実験では、提案されたアプローチが非常に効果的であることを示し、リーダーボードでトップの座を獲得している。
論文 参考訳(メタデータ) (2020-08-11T15:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。