論文の概要: SPARQLing Database Queries from Intermediate Question Decompositions
- arxiv url: http://arxiv.org/abs/2109.06162v1
- Date: Mon, 13 Sep 2021 17:57:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:41:56.732635
- Title: SPARQLing Database Queries from Intermediate Question Decompositions
- Title(参考訳): 中間的質問分解からデータベースクエリをスパルサーする
- Authors: Irina Saparina, Anton Osokin
- Abstract要約: 自然言語の質問をデータベースクエリに変換するために、ほとんどのアプローチは、完全に注釈付けされたトレーニングセットに依存している。
データベースの中間問題表現を基盤として,この負担を軽減する。
我々のパイプラインは、自然言語質問を中間表現に変換するセマンティックと、訓練不能なトランスパイラをQLSPARクエリ言語に変換する2つの部分から構成される。
- 参考スコア(独自算出の注目度): 7.475027071883912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To translate natural language questions into executable database queries,
most approaches rely on a fully annotated training set. Annotating a large
dataset with queries is difficult as it requires query-language expertise. We
reduce this burden using grounded in databases intermediate question
representations. These representations are simpler to collect and were
originally crowdsourced within the Break dataset (Wolfson et al., 2020). Our
pipeline consists of two parts: a neural semantic parser that converts natural
language questions into the intermediate representations and a non-trainable
transpiler to the SPARQL query language (a standard language for accessing
knowledge graphs and semantic web). We chose SPARQL because its queries are
structurally closer to our intermediate representations (compared to SQL). We
observe that the execution accuracy of queries constructed by our model on the
challenging Spider dataset is comparable with the state-of-the-art text-to-SQL
methods trained with annotated SQL queries. Our code and data are publicly
available (see https://github.com/yandex-research/sparqling-queries).
- Abstract(参考訳): 自然言語質問を実行可能なデータベースクエリに変換するために、ほとんどのアプローチは、完全にアノテートされたトレーニングセットに依存している。
大きなデータセットをクエリでアノテートするのは、クエリ言語の専門知識を必要とするため難しい。
この負担をデータベースの中間的質問表現に接することで軽減する。
これらの表現は収集が簡単で、もともとはBreakデータセット(Wolfson et al., 2020)にクラウドソースされていた。
我々のパイプラインは、自然言語質問を中間表現に変換するニューラルネットワークセマンティックパーザと、SPARQLクエリ言語(知識グラフとセマンティックWebにアクセスするための標準言語)に変換する非トレーニング可能なトランスパイラの2つの部分で構成されています。
クエリが中間表現(SQLと比較して)に構造的に近いため、SPARQLを選択しました。
我々は,本モデルで構築したスパイダーデータセット上でのクエリの実行精度が,注釈付きSQLクエリでトレーニングした最先端のテキスト-SQLメソッドに匹敵することを示した。
コードとデータは公開されている(https://github.com/yandex-research/sparqling-queries参照)。
関連論文リスト
- Decoupling SQL Query Hardness Parsing for Text-to-SQL [2.30258928355895]
本稿では,問合せ難易度解析の分離に基づくテキスト対結合のための革新的なフレームワークを提案する。
このフレームワークは、質問やスキーマを分析することで、クエリの難しさに基づいて、Text-to-coupleタスクを分離し、マルチハーネスタスクを単一ハーネスチャレンジに単純化する。
論文 参考訳(メタデータ) (2023-12-11T07:20:46Z) - Semantic Decomposition of Question and SQL for Text-to-SQL Parsing [2.684900573255764]
本稿では,sqlクエリを単純かつ正規のサブクエリに体系的に分解するモジュール型クエリプラン言語(QPL)を提案する。
実験の結果,QPLは意味論的に等価なクエリに対して,テキスト対QPLよりも有効であることがわかった。
論文 参考訳(メタデータ) (2023-10-20T15:13:34Z) - Semantic Parsing for Conversational Question Answering over Knowledge
Graphs [63.939700311269156]
本研究では,ユーザの質問にSparqlパースとアノテートし,システム回答が実行結果に対応するデータセットを開発する。
本稿では,2つの意味解析手法を提案し,その課題を強調した。
私たちのデータセットとモデルはhttps://github.com/Edinburgh/SPICE.orgで公開されています。
論文 参考訳(メタデータ) (2023-01-28T14:45:11Z) - XRICL: Cross-lingual Retrieval-Augmented In-Context Learning for
Cross-lingual Text-to-SQL Semantic Parsing [70.40401197026925]
大規模言語モデルを用いたインコンテキスト学習は、最近セマンティック解析タスクの驚くべき結果を示している。
この研究は、あるクエリに対して関連する英語の例を検索する学習を行うXRICLフレームワークを導入している。
また、大規模言語モデルの翻訳プロセスを容易にするために、対象言語に対するグローバルな翻訳例も含んでいる。
論文 参考訳(メタデータ) (2022-10-25T01:33:49Z) - Improving Text-to-SQL Semantic Parsing with Fine-grained Query
Understanding [84.04706075621013]
トークンレベルのきめ細かいクエリ理解に基づく汎用的モジュール型ニューラルネットワーク解析フレームワークを提案する。
我々のフレームワークは、名前付きエンティティ認識(NER)、ニューラルエンティティリンカ(NEL)、ニューラルエンティティリンカ(NSP)の3つのモジュールから構成されている。
論文 参考訳(メタデータ) (2022-09-28T21:00:30Z) - A Survey on Text-to-SQL Parsing: Concepts, Methods, and Future
Directions [102.8606542189429]
テキストからコーパスへのパースの目的は、自然言語(NL)質問をデータベースが提供するエビデンスに基づいて、対応する構造化クエリ言語()に変換することである。
ディープニューラルネットワークは、入力NL質問から出力クエリへのマッピング関数を自動的に学習するニューラルジェネレーションモデルによって、このタスクを大幅に進歩させた。
論文 参考訳(メタデータ) (2022-08-29T14:24:13Z) - Graph Enhanced BERT for Query Understanding [55.90334539898102]
クエリ理解は、ユーザの検索意図を探索し、ユーザが最も望まれる情報を発見できるようにする上で、重要な役割を果たす。
近年、プレトレーニング言語モデル (PLM) は様々な自然言語処理タスクを進歩させてきた。
本稿では,クエリコンテンツとクエリグラフの両方を活用可能な,グラフ強化事前学習フレームワークGE-BERTを提案する。
論文 参考訳(メタデータ) (2022-04-03T16:50:30Z) - Reducing the impact of out of vocabulary words in the translation of
natural language questions into SPARQL queries [5.97507595130844]
SPARQLにおける自然言語による質問の自動翻訳は、この問題を克服する可能性を秘めている。
ニューラルマシン翻訳に基づく既存のシステムは、トレーニングセットのアウト・オブ・ザ・ボキャブラリ(OOV)である単語を認識するのに非常に効果的であるが、容易に失敗する。
論文 参考訳(メタデータ) (2021-11-04T16:53:59Z) - Dual Reader-Parser on Hybrid Textual and Tabular Evidence for Open
Domain Question Answering [78.9863753810787]
世界の知識は構造化データベースに保存されている。
クエリ言語は、複雑な推論を必要とする質問に答えるだけでなく、完全な説明可能性を提供することができる。
論文 参考訳(メタデータ) (2021-08-05T22:04:13Z) - ColloQL: Robust Cross-Domain Text-to-SQL Over Search Queries [10.273545005890496]
データ拡張技術とサンプリングベースコンテンツ対応BERTモデル(ColloQL)を紹介する。
ColloQLは、Wikilogicalデータセット上で84.9%(実行)と90.7%(実行)の精度を達成する。
論文 参考訳(メタデータ) (2020-10-19T23:53:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。