論文の概要: Semantic Parsing Natural Language into Relational Algebra
- arxiv url: http://arxiv.org/abs/2106.13858v1
- Date: Fri, 25 Jun 2021 19:36:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 10:33:14.063872
- Title: Semantic Parsing Natural Language into Relational Algebra
- Title(参考訳): セマンティックパーシング自然言語をリレーショナル代数に変換する
- Authors: Ruiyang Xu, Ayush Singh
- Abstract要約: データベースへの自然なインターフェース(NLIDB)は、過去数十年で多く研究されてきた。
ニューラルディープラーニングの最近の進歩は、一般的なNLIDBシステムを構築する上で有望な方向性をもたらすように思われる。
- 参考スコア(独自算出の注目度): 4.56877715768796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural interface to database (NLIDB) has been researched a lot during the
past decades. In the core of NLIDB, is a semantic parser used to convert
natural language into SQL. Solutions from traditional NLP methodology focuses
on grammar rule pattern learning and pairing via intermediate logic forms.
Although those methods give an acceptable performance on certain specific
database and parsing tasks, they are hard to generalize and scale. On the other
hand, recent progress in neural deep learning seems to provide a promising
direction towards building a general NLIDB system. Unlike the traditional
approach, those neural methodologies treat the parsing problem as a
sequence-to-sequence learning problem. In this paper, we experimented on
several sequence-to-sequence learning models and evaluate their performance on
general database parsing task.
- Abstract(参考訳): データベースへの自然なインターフェース(NLIDB)は、過去数十年で多く研究されてきた。
NLIDBの中核は、自然言語をSQLに変換するために使われるセマンティックパーサである。
従来のNLP方法論の解決策は文法規則パターン学習と中間論理形式によるペアリングに焦点を当てている。
これらのメソッドは特定のデータベースやパースタスクに対して許容できるパフォーマンスを提供するが、一般化や拡張は困難である。
一方,近年のニューラルディープ・ラーニングの進歩は,一般的なNLIDBシステム構築に有望な方向性をもたらすと考えられる。
従来のアプローチとは異なり、これらの神経方法論は解析問題をシーケンスからシーケンスへの学習問題として扱う。
本稿では,いくつかのシーケンスからシーケンスへの学習モデルを実験し,その性能を一般データベース解析タスクで評価する。
関連論文リスト
- Uni-Parser: Unified Semantic Parser for Question Answering on Knowledge
Base and Database [86.03294330305097]
知識ベース(KB)とデータベース(DB)の両方で質問応答(QA)を統一した意味的要素を提案する。
フレームワークに不可欠な要素としてプリミティブ(KBのリレーションとエンティティ、テーブル名、列名、DBのセル値)を導入します。
生成元を利用して、異なる操作でトップランクプリミティブを変更・構成することで、最終的な論理形式を予測する。
論文 参考訳(メタデータ) (2022-11-09T19:33:27Z) - STAR: SQL Guided Pre-Training for Context-dependent Text-to-SQL Parsing [64.80483736666123]
文脈依存型テキスト・ツー・パースのための新しい事前学習フレームワークSTARを提案する。
さらに,STARを事前学習するための大規模コンテキスト依存型テキスト対話コーパスを構築した。
大規模な実験により、STARは2つの下流ベンチマークで新しい最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2022-10-21T11:30:07Z) - Proton: Probing Schema Linking Information from Pre-trained Language
Models for Text-to-SQL Parsing [66.55478402233399]
本稿では,ポアンカー距離測定に基づく探索手法を用いて,関係構造を抽出する枠組みを提案する。
スキーマリンクの一般的なルールベース手法と比較して,探索関係は意味的対応をしっかりと捉えることができることがわかった。
我々のフレームワークは3つのベンチマークで最先端のパフォーマンスを新たに設定する。
論文 参考訳(メタデータ) (2022-06-28T14:05:25Z) - Sequence-to-Sequence Learning with Latent Neural Grammars [12.624691611049341]
ニューラルネットワークを用いたシーケンス対シーケンス学習は、シーケンス予測タスクのデファクトスタンダードとなっている。
フレキシブルでパフォーマンスが高いが、これらのモデルはトレーニングのために大きなデータセットを必要とすることが多く、構成の一般化をテストするために設計されたベンチマークで驚くほど失敗することがある。
この研究は、準同期文法を用いたシーケンシャル・ツー・シークエンス学習の代替的、階層的アプローチを探求する。
論文 参考訳(メタデータ) (2021-09-02T17:58:08Z) - Learning to Synthesize Data for Semantic Parsing [57.190817162674875]
本稿では,プログラムの構成をモデル化し,プログラムを発話にマップする生成モデルを提案する。
PCFGと事前学習されたBARTの簡易性により,既存のデータから効率的に生成モデルを学習することができる。
GeoQuery と Spider の標準ベンチマークで解析する text-to-Query の in-domain と out-of-domain の両方で、この手法を評価します。
論文 参考訳(メタデータ) (2021-04-12T21:24:02Z) - DBTagger: Multi-Task Learning for Keyword Mapping in NLIDBs Using
Bi-Directional Recurrent Neural Networks [0.2578242050187029]
NLQのPOSタグを利用した新しいディープラーニングに基づく教師付きアプローチを提案する。
8つの異なるデータセットに対するアプローチを評価し、最新の精度結果、平均92.4%$を報告します。
論文 参考訳(メタデータ) (2021-01-11T22:54:39Z) - Learning Contextual Representations for Semantic Parsing with
Generation-Augmented Pre-Training [86.91380874390778]
本稿では,生成モデルを活用して事前学習データを生成することで,自然言語発話と表スキーマの表現を共同で学習するGAPを提案する。
実験結果に基づいて、GAP MODELを利用するニューラルセマンティクスは、SPIDERとCRITERIA-to-generationベンチマークの両方で最新の結果を得る。
論文 参考訳(メタデータ) (2020-12-18T15:53:50Z) - Recent Advances in SQL Query Generation: A Survey [0.0]
ディープラーニング技術の発展に伴い、リレーショナルデータベースに適した自然言語インタフェースの設計において、広範な研究が進められている。
畳み込みニューラルネットワークやリカレントニューラルネットワーク,ポインタネットワーク,強化学習など,さまざまなアーキテクチャのモデルを記述する。
論文 参考訳(メタデータ) (2020-05-15T17:31:29Z) - Logical Natural Language Generation from Open-Domain Tables [107.04385677577862]
本稿では,その事実に関連付けられた自然言語文をモデルで生成するタスクを提案する。
提案した論理的 NLG 問題の研究を容易にするために,幅広い論理的・記号的推論を特徴とする既存の TabFact データセットcitechen 2019tabfact を用いる。
新しいタスクは、シーケンス順序と論理順序のミスマッチのため、既存のモノトニック生成フレームワークに課題をもたらす。
論文 参考訳(メタデータ) (2020-04-22T06:03:10Z) - A Methodology for Creating Question Answering Corpora Using Inverse Data
Annotation [16.914116942666976]
本稿では,構造化データに対する質問応答のためのコーパスを効率的に構築するための新しい手法を提案する。
本研究では,文脈自由文法からOTをランダムに生成する。
提案手法を適用して,大規模な意味解析コーパスであるOTTA(Operation Trees and Token Assignment)を作成する。
論文 参考訳(メタデータ) (2020-04-16T12:50:01Z) - A Hybrid Approach to Dependency Parsing: Combining Rules and Morphology
with Deep Learning [0.0]
本稿では,特に訓練データ量に制限のある言語に対して,依存関係解析の2つのアプローチを提案する。
第1のアプローチは、最先端のディープラーニングとルールベースのアプローチを組み合わせ、第2のアプローチは、形態情報をネットワークに組み込む。
提案手法はトルコ語向けに開発されたが、他の言語にも適用可能である。
論文 参考訳(メタデータ) (2020-02-24T08:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。