論文の概要: Hybrid Ranking Network for Text-to-SQL
- arxiv url: http://arxiv.org/abs/2008.04759v1
- Date: Tue, 11 Aug 2020 15:01:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 11:28:02.875331
- Title: Hybrid Ranking Network for Text-to-SQL
- Title(参考訳): テキストからSQLへのハイブリッドランキングネットワーク
- Authors: Qin Lyu, Kaushik Chakrabarti, Shobhit Hathi, Souvik Kundu, Jianwen
Zhang, Zheng Chen
- Abstract要約: そこで我々は,Hybrid Ranking Network (HydraNet) という手法を提案する。
データセットの実験では、提案されたアプローチが非常に効果的であることを示し、リーダーボードでトップの座を獲得している。
- 参考スコア(独自算出の注目度): 9.731436359069493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study how to leverage pre-trained language models in
Text-to-SQL. We argue that previous approaches under utilize the base language
models by concatenating all columns together with the NL question and feeding
them into the base language model in the encoding stage. We propose a neat
approach called Hybrid Ranking Network (HydraNet) which breaks down the problem
into column-wise ranking and decoding and finally assembles the column-wise
outputs into a SQL query by straightforward rules. In this approach, the
encoder is given a NL question and one individual column, which perfectly
aligns with the original tasks BERT/RoBERTa is trained on, and hence we avoid
any ad-hoc pooling or additional encoding layers which are necessary in prior
approaches. Experiments on the WikiSQL dataset show that the proposed approach
is very effective, achieving the top place on the leaderboard.
- Abstract(参考訳): 本稿では,テキストからSQLへの事前学習言語モデルの活用方法について検討する。
従来の手法では,すべての列をNL質問と組み合わせ,符号化段階のベース言語モデルに入力することで,基本言語モデルを利用することができた。
そこで我々は,Hybrid Ranking Network(HydraNet)という,カラムワイドなランク付けとデコードに問題を分解し,カラムワイドな出力をSQLクエリに簡単なルールで組み立てる手法を提案する。
このアプローチでは、エンコーダにはnlの質問と1つのコラムが与えられ、bert/robertaがトレーニングした元のタスクと完全に一致するため、事前のアプローチに必要なアドホックプールや追加のエンコーディング層は避けます。
wikisqlデータセットでの実験では、提案手法は非常に効果的であり、リーダーボードの上位に到達している。
関連論文リスト
- RSL-SQL: Robust Schema Linking in Text-to-SQL Generation [51.00761167842468]
本稿では、双方向スキーマリンク、コンテキスト情報拡張、バイナリ選択戦略、マルチターン自己補正を組み合わせたRSLと呼ばれる新しいフレームワークを提案する。
ベンチマークの結果,オープンソースのソリューション間でのSOTA実行精度は67.2%,BIRDは87.9%,GPT-4オクルージョンは87.9%であった。
提案手法は,DeepSeekを同一のプロンプトで適用した場合,GPT-4ベースのテキスト・ツー・シークシステムよりも優れている。
論文 参考訳(メタデータ) (2024-10-31T16:22:26Z) - STAR: SQL Guided Pre-Training for Context-dependent Text-to-SQL Parsing [64.80483736666123]
文脈依存型テキスト・ツー・パースのための新しい事前学習フレームワークSTARを提案する。
さらに,STARを事前学習するための大規模コンテキスト依存型テキスト対話コーパスを構築した。
大規模な実験により、STARは2つの下流ベンチマークで新しい最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2022-10-21T11:30:07Z) - A Survey on Text-to-SQL Parsing: Concepts, Methods, and Future
Directions [102.8606542189429]
テキストからコーパスへのパースの目的は、自然言語(NL)質問をデータベースが提供するエビデンスに基づいて、対応する構造化クエリ言語()に変換することである。
ディープニューラルネットワークは、入力NL質問から出力クエリへのマッピング関数を自動的に学習するニューラルジェネレーションモデルによって、このタスクを大幅に進歩させた。
論文 参考訳(メタデータ) (2022-08-29T14:24:13Z) - S$^2$SQL: Injecting Syntax to Question-Schema Interaction Graph Encoder
for Text-to-SQL Parsers [66.78665327694625]
テキスト-関係解析のための質問-エンコーダグラフに構文を注入するS$2$を提案する。
また、疎結合制約を用いて多様なエッジ埋め込みを誘導し、ネットワークの性能をさらに向上させる。
スパイダーとロバスト性設定の実験は、提案手法が事前学習モデルを使用する場合、既存のすべての手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-03-14T09:49:15Z) - Weakly Supervised Text-to-SQL Parsing through Question Decomposition [53.22128541030441]
我々は最近提案されたQDMR(QDMR)という意味表現を活用している。
質問やQDMR構造(非専門家によって注釈付けされたり、自動予測されたりする)、回答が与えられたら、我々は自動的にsqlクエリを合成できる。
本結果は,NL-ベンチマークデータを用いて訓練したモデルと,弱い教師付きモデルが競合することを示す。
論文 参考訳(メタデータ) (2021-12-12T20:02:42Z) - Leveraging Table Content for Zero-shot Text-to-SQL with Meta-Learning [25.69875174742935]
単一テーブルのテキスト・トゥ・ワンは、自然言語の質問を単一のテーブルに従ってクエリに変換することを目的としている。
我々は、追加のマニュアルアノテーションに依存しないゼロショットテキスト・ツー・ワンタスクに対して、新しいアプローチを提案する。
パブリックなオープンドメインのテキスト・ツー・ワン・データセットとドメイン固有のデータセットEについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-12T01:01:28Z) - Data Augmentation with Hierarchical SQL-to-Question Generation for
Cross-domain Text-to-SQL Parsing [40.65143087243074]
本稿では,単純なデータ拡張フレームワークを提案する。
まず、データベースを与えられたら、抽象構文木文法citeyintranxに基づいて大量のsqlクエリを自動的に生成します。
第2に,高品質自然言語問題を得るための階層的sql-to-question生成モデルを提案する。
論文 参考訳(メタデータ) (2021-03-03T07:37:38Z) - GP: Context-free Grammar Pre-training for Text-to-SQL Parsers [7.652782364282768]
Grammar Pre-training (GP) は質問とデータベースの深い関係を解読するために提案されている。
実験により,本手法は訓練中に収束しやすく,堅牢性に優れることがわかった。
論文 参考訳(メタデータ) (2021-01-25T05:41:31Z) - Structure-Grounded Pretraining for Text-to-SQL [75.19554243393814]
本稿では,テキストからLARGEへの構造化事前学習フレームワーク(G)について述べる。
カラムグラウンド、バリューグラウンド、カラム値マッピングといった新しい予測タスクのセットを特定し、それらをテキストテーブルエンコーダの事前訓練に活用する。
論文 参考訳(メタデータ) (2020-10-24T04:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。