論文の概要: Hybrid Ranking Network for Text-to-SQL
- arxiv url: http://arxiv.org/abs/2008.04759v1
- Date: Tue, 11 Aug 2020 15:01:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 11:28:02.875331
- Title: Hybrid Ranking Network for Text-to-SQL
- Title(参考訳): テキストからSQLへのハイブリッドランキングネットワーク
- Authors: Qin Lyu, Kaushik Chakrabarti, Shobhit Hathi, Souvik Kundu, Jianwen
Zhang, Zheng Chen
- Abstract要約: そこで我々は,Hybrid Ranking Network (HydraNet) という手法を提案する。
データセットの実験では、提案されたアプローチが非常に効果的であることを示し、リーダーボードでトップの座を獲得している。
- 参考スコア(独自算出の注目度): 9.731436359069493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study how to leverage pre-trained language models in
Text-to-SQL. We argue that previous approaches under utilize the base language
models by concatenating all columns together with the NL question and feeding
them into the base language model in the encoding stage. We propose a neat
approach called Hybrid Ranking Network (HydraNet) which breaks down the problem
into column-wise ranking and decoding and finally assembles the column-wise
outputs into a SQL query by straightforward rules. In this approach, the
encoder is given a NL question and one individual column, which perfectly
aligns with the original tasks BERT/RoBERTa is trained on, and hence we avoid
any ad-hoc pooling or additional encoding layers which are necessary in prior
approaches. Experiments on the WikiSQL dataset show that the proposed approach
is very effective, achieving the top place on the leaderboard.
- Abstract(参考訳): 本稿では,テキストからSQLへの事前学習言語モデルの活用方法について検討する。
従来の手法では,すべての列をNL質問と組み合わせ,符号化段階のベース言語モデルに入力することで,基本言語モデルを利用することができた。
そこで我々は,Hybrid Ranking Network(HydraNet)という,カラムワイドなランク付けとデコードに問題を分解し,カラムワイドな出力をSQLクエリに簡単なルールで組み立てる手法を提案する。
このアプローチでは、エンコーダにはnlの質問と1つのコラムが与えられ、bert/robertaがトレーニングした元のタスクと完全に一致するため、事前のアプローチに必要なアドホックプールや追加のエンコーディング層は避けます。
wikisqlデータセットでの実験では、提案手法は非常に効果的であり、リーダーボードの上位に到達している。
関連論文リスト
- STAR: SQL Guided Pre-Training for Context-dependent Text-to-SQL Parsing [64.80483736666123]
文脈依存型テキスト・ツー・パースのための新しい事前学習フレームワークSTARを提案する。
さらに,STARを事前学習するための大規模コンテキスト依存型テキスト対話コーパスを構築した。
大規模な実験により、STARは2つの下流ベンチマークで新しい最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2022-10-21T11:30:07Z) - A Survey on Text-to-SQL Parsing: Concepts, Methods, and Future
Directions [102.8606542189429]
テキストからコーパスへのパースの目的は、自然言語(NL)質問をデータベースが提供するエビデンスに基づいて、対応する構造化クエリ言語()に変換することである。
ディープニューラルネットワークは、入力NL質問から出力クエリへのマッピング関数を自動的に学習するニューラルジェネレーションモデルによって、このタスクを大幅に進歩させた。
論文 参考訳(メタデータ) (2022-08-29T14:24:13Z) - S$^2$SQL: Injecting Syntax to Question-Schema Interaction Graph Encoder
for Text-to-SQL Parsers [66.78665327694625]
テキスト-関係解析のための質問-エンコーダグラフに構文を注入するS$2$を提案する。
また、疎結合制約を用いて多様なエッジ埋め込みを誘導し、ネットワークの性能をさらに向上させる。
スパイダーとロバスト性設定の実験は、提案手法が事前学習モデルを使用する場合、既存のすべての手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-03-14T09:49:15Z) - Leveraging Table Content for Zero-shot Text-to-SQL with Meta-Learning [25.69875174742935]
単一テーブルのテキスト・トゥ・ワンは、自然言語の質問を単一のテーブルに従ってクエリに変換することを目的としている。
我々は、追加のマニュアルアノテーションに依存しないゼロショットテキスト・ツー・ワンタスクに対して、新しいアプローチを提案する。
パブリックなオープンドメインのテキスト・ツー・ワン・データセットとドメイン固有のデータセットEについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-12T01:01:28Z) - Data Augmentation with Hierarchical SQL-to-Question Generation for
Cross-domain Text-to-SQL Parsing [40.65143087243074]
本稿では,単純なデータ拡張フレームワークを提案する。
まず、データベースを与えられたら、抽象構文木文法citeyintranxに基づいて大量のsqlクエリを自動的に生成します。
第2に,高品質自然言語問題を得るための階層的sql-to-question生成モデルを提案する。
論文 参考訳(メタデータ) (2021-03-03T07:37:38Z) - GP: Context-free Grammar Pre-training for Text-to-SQL Parsers [7.652782364282768]
Grammar Pre-training (GP) は質問とデータベースの深い関係を解読するために提案されている。
実験により,本手法は訓練中に収束しやすく,堅牢性に優れることがわかった。
論文 参考訳(メタデータ) (2021-01-25T05:41:31Z) - Bridging Textual and Tabular Data for Cross-Domain Text-to-SQL Semantic
Parsing [110.97778888305506]
BRIDGEは、フィールドのサブセットが質問に言及されたセル値で拡張されるタグ付きシーケンスの質問とDBスキーマを表します。
BRIDGEは、人気のクロスDBテキスト-リレーショナルベンチマークで最先端のパフォーマンスを達成しました。
本分析は,BRIDGEが望まれる相互依存を効果的に捕捉し,さらにテキストDB関連タスクに一般化する可能性を示唆している。
論文 参考訳(メタデータ) (2020-12-23T12:33:52Z) - Structure-Grounded Pretraining for Text-to-SQL [75.19554243393814]
本稿では,テキストからLARGEへの構造化事前学習フレームワーク(G)について述べる。
カラムグラウンド、バリューグラウンド、カラム値マッピングといった新しい予測タスクのセットを特定し、それらをテキストテーブルエンコーダの事前訓練に活用する。
論文 参考訳(メタデータ) (2020-10-24T04:35:35Z) - TaBERT: Pretraining for Joint Understanding of Textual and Tabular Data [113.29476656550342]
本研究では,NL文と表の表現を共同で学習する事前学習型LMであるTaBERTを提案する。
TaBERTは、600万のテーブルとその英語コンテキストからなる大規模なコーパスで訓練されている。
モデルの実装はhttp://fburl.com/TaBERT.comで公開される。
論文 参考訳(メタデータ) (2020-05-17T17:26:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。