論文の概要: Towards Knowledge-Intensive Text-to-SQL Semantic Parsing with Formulaic
Knowledge
- arxiv url: http://arxiv.org/abs/2301.01067v1
- Date: Tue, 3 Jan 2023 12:37:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 14:31:03.658579
- Title: Towards Knowledge-Intensive Text-to-SQL Semantic Parsing with Formulaic
Knowledge
- Title(参考訳): 論理知識を用いた知識集約型テキストからsqlへの意味解析
- Authors: Longxu Dou, Yan Gao, Xuqi Liu, Mingyang Pan, Dingzirui Wang, Wanxiang
Che, Dechen Zhan, Min-Yen Kan, Jian-Guang Lou
- Abstract要約: 我々は、さまざまなドメインをカバーするドメイン固有の質問からなる新しい中国のベンチマークKnowを構築した。
次に、付加的なデータ例に注釈を付けるのではなく、公式知識を提示することでこの問題に対処する。
より具体的には、ドメイン知識基盤として定式的知識バンクを構築し、解析中にこの定式的知識を活用するためのフレームワーク(ReGrouP)を提案する。
- 参考スコア(独自算出の注目度): 54.85168428642474
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we study the problem of knowledge-intensive text-to-SQL, in
which domain knowledge is necessary to parse expert questions into SQL queries
over domain-specific tables. We formalize this scenario by building a new
Chinese benchmark KnowSQL consisting of domain-specific questions covering
various domains. We then address this problem by presenting formulaic
knowledge, rather than by annotating additional data examples. More concretely,
we construct a formulaic knowledge bank as a domain knowledge base and propose
a framework (ReGrouP) to leverage this formulaic knowledge during parsing.
Experiments using ReGrouP demonstrate a significant 28.2% improvement overall
on KnowSQL.
- Abstract(参考訳): 本稿では,知識集約型テキスト・トゥ・SQLの課題について考察する。ドメイン固有テーブル上での専門家による質問をSQLクエリに解析するためには,ドメイン知識が必要である。
私たちは、さまざまなドメインをカバーするドメイン固有の質問からなる新しい中国のベンチマークknowsqlを構築することで、このシナリオを形式化します。
次に、付加的なデータ例に注釈を付けるのではなく、公式知識を提示することでこの問題に対処する。
より具体的には、ドメイン知識ベースとして公式知識バンクを構築し、解析中にこの公式知識を活用するためのフレームワーク(再グループ)を提案する。
ReGrouPを使った実験では、KnowSQL全体の28.2%が大幅に改善されている。
関連論文リスト
- Enhancing Text-to-SQL Translation for Financial System Design [5.248014305403357]
様々なNLPタスクの最先端技術を実現したLarge Language Models (LLMs) について検討する。
本稿では,関係クエリ間の類似性を適切に測定する2つの新しい指標を提案する。
論文 参考訳(メタデータ) (2023-12-22T14:34:19Z) - UNITE: A Unified Benchmark for Text-to-SQL Evaluation [72.72040379293718]
テキスト・ツー・ドメイン・システムのためのUNIfiedベンチマークを導入する。
公開されているテキストからドメインへのデータセットと29Kデータベースで構成されている。
広く使われているSpiderベンチマークと比較すると、SQLパターンの3倍の増加が紹介されている。
論文 参考訳(メタデータ) (2023-05-25T17:19:52Z) - DocuT5: Seq2seq SQL Generation with Table Documentation [5.586191108738563]
我々は、新しいテキスト・ツー・タコノミーの失敗分類を開発し、19.6%のエラーが外国の重大な誤りによるものであることを発見した。
本研究では,(1)外部キーの表構造コンテキストから知識を抽出するDocuT5を提案する。
どちらのタイプの知識も、スパイダー上の制約付き復号化によって最先端のT5よりも改善され、ドメイン知識はスパイダーDKやスパイダーSYNのデータセットで最先端に匹敵する効果を生み出す。
論文 参考訳(メタデータ) (2022-11-11T13:31:55Z) - Towards Generalizable and Robust Text-to-SQL Parsing [77.18724939989647]
本稿では,タスク分解,知識獲得,知識構成からなる新しいTKKフレームワークを提案する。
このフレームワークは,Spider,SParC,Co.データセット上でのすべてのシナリオと最先端のパフォーマンスに有効であることを示す。
論文 参考訳(メタデータ) (2022-10-23T09:21:27Z) - Open Domain Question Answering over Virtual Documents: A Unified
Approach for Data and Text [62.489652395307914]
我々は、知識集約型アプリケーションのための構造化知識を符号化する手段として、Data-to-text法、すなわち、オープンドメイン質問応答(QA)を用いる。
具体的には、ウィキペディアとウィキソースの3つのテーブルを付加知識源として使用する、データとテキスト上でのオープンドメインQAのための冗長化-レトリバー・リーダー・フレームワークを提案する。
UDT-QA(Unified Data and Text QA)は,知識インデックスの拡大を効果的に活用できることを示す。
論文 参考訳(メタデータ) (2021-10-16T00:11:21Z) - Exploring Underexplored Limitations of Cross-Domain Text-to-SQL
Generalization [20.550737675032448]
既存のテキスト変換モデルは、トレーニングデータに頻繁に現れないドメイン知識に直面すると一般化しない。
本研究は,ドメイン知識の観察が稀な場合のテキスト・ツー・カレーション・モデルのロバスト性について考察する。
トレーニングセットにドメイン知識が現れても,そのようなドメイン知識を必要とするサンプルに対して,予測精度が劇的に低下することを示す。
論文 参考訳(メタデータ) (2021-09-11T02:01:04Z) - Dual Reader-Parser on Hybrid Textual and Tabular Evidence for Open
Domain Question Answering [78.9863753810787]
世界の知識は構造化データベースに保存されている。
クエリ言語は、複雑な推論を必要とする質問に答えるだけでなく、完全な説明可能性を提供することができる。
論文 参考訳(メタデータ) (2021-08-05T22:04:13Z) - "What Do You Mean by That?" A Parser-Independent Interactive Approach
for Enhancing Text-to-SQL [49.85635994436742]
ループ内に人間を包含し,複数質問を用いてユーザと対話する,新規非依存型対話型アプローチ(PIIA)を提案する。
PIIAは、シミュレーションと人的評価の両方を用いて、限られたインタラクションターンでテキストとドメインのパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2020-11-09T02:14:33Z) - Knowledge Fusion and Semantic Knowledge Ranking for Open Domain Question
Answering [33.920269584939334]
Open Domain Question Answeringは、外部知識を取得し、マルチホップ推論を実行するシステムを必要とする。
我々は,Luceneベースの情報検索システムから取得した知識を再ランク付けするために,意味知識ランキングモデルを学ぶ。
BERTをベースとした言語モデルにおける知識を外部から検索する「知識融合モデル」を提案する。
論文 参考訳(メタデータ) (2020-04-07T03:16:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。