論文の概要: Dual Reader-Parser on Hybrid Textual and Tabular Evidence for Open
Domain Question Answering
- arxiv url: http://arxiv.org/abs/2108.02866v1
- Date: Thu, 5 Aug 2021 22:04:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-09 14:37:47.924937
- Title: Dual Reader-Parser on Hybrid Textual and Tabular Evidence for Open
Domain Question Answering
- Title(参考訳): Open Domain Question Answeringのためのハイブリッドテキストとタブラリエビデンスに関するデュアルレシーバ
- Authors: Alexander Hanbo Li, Patrick Ng, Peng Xu, Henghui Zhu, Zhiguo Wang,
Bing Xiang
- Abstract要約: 世界の知識は構造化データベースに保存されている。
クエリ言語は、複雑な推論を必要とする質問に答えるだけでなく、完全な説明可能性を提供することができる。
- 参考スコア(独自算出の注目度): 78.9863753810787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The current state-of-the-art generative models for open-domain question
answering (ODQA) have focused on generating direct answers from unstructured
textual information. However, a large amount of world's knowledge is stored in
structured databases, and need to be accessed using query languages such as
SQL. Furthermore, query languages can answer questions that require complex
reasoning, as well as offering full explainability. In this paper, we propose a
hybrid framework that takes both textual and tabular evidence as input and
generates either direct answers or SQL queries depending on which form could
better answer the question. The generated SQL queries can then be executed on
the associated databases to obtain the final answers. To the best of our
knowledge, this is the first paper that applies Text2SQL to ODQA tasks.
Empirically, we demonstrate that on several ODQA datasets, the hybrid methods
consistently outperforms the baseline models that only take homogeneous input
by a large margin. Specifically we achieve state-of-the-art performance on
OpenSQuAD dataset using a T5-base model. In a detailed analysis, we demonstrate
that the being able to generate structural SQL queries can always bring gains,
especially for those questions that requires complex reasoning.
- Abstract(参考訳): オープンドメイン質問応答(ODQA)の最先端生成モデルは、構造化されていないテキスト情報から直接回答を生成することに焦点を当てている。
しかし、世界の知識の多くは構造化データベースに保存されており、SQLのようなクエリ言語を使ってアクセスする必要がある。
さらに、クエリ言語は複雑な推論を必要とする質問に答えるだけでなく、完全な説明可能性も提供する。
本稿では,文と表の両方のエビデンスを入力として,どのフォームで質問に答えられるかによって,直接回答あるいはsqlクエリを生成するハイブリッドフレームワークを提案する。
生成されたSQLクエリは、関連するデータベース上で実行され、最終的な回答が得られる。
私たちの知る限りでは、これはodqaタスクにtext2sqlを適用する最初の論文です。
実験により、複数のODQAデータセットにおいて、ハイブリッド手法は、均一な入力を大きなマージンでのみ得るベースラインモデルよりも一貫して優れていることを示した。
具体的には,T5ベースモデルを用いて,OpenSQuADデータセットの最先端性能を実現する。
詳細な分析では、構造的なSQLクエリを生成することは、特に複雑な推論を必要とする質問に対して、常に利益をもたらすことができることを示した。
関連論文リスト
- PRACTIQ: A Practical Conversational Text-to-SQL dataset with Ambiguous and Unanswerable Queries [32.40808001281668]
実際のユーザ質問は、複数の解釈で曖昧である場合もあれば、関連するデータが不足しているため、解決不可能である場合もあります。
本研究では,実際の対話型テキスト・テキスト・データセットを構築する。
我々は,最初のユーザ質問,明確化を求めるアシスタント応答,ユーザの明確化,およびアシスタントの明確化の4つのターンで会話を生成する。
論文 参考訳(メタデータ) (2024-10-14T20:36:35Z) - UNITE: A Unified Benchmark for Text-to-SQL Evaluation [72.72040379293718]
テキスト・ツー・ドメイン・システムのためのUNIfiedベンチマークを導入する。
公開されているテキストからドメインへのデータセットと29Kデータベースで構成されている。
広く使われているSpiderベンチマークと比較すると、SQLパターンの3倍の増加が紹介されている。
論文 参考訳(メタデータ) (2023-05-25T17:19:52Z) - QURG: Question Rewriting Guided Context-Dependent Text-to-SQL Semantic
Parsing [46.05006486399823]
本稿では,モデルが適切な文脈理解を実現するのに役立つ新しい質問書き直し指導手法であるQURGを提案する。
まず、質問コンテキストに基づいて現在の質問を完了させるために質問書き換えモデルを訓練し、それらを書き換え編集行列に変換する。
さらに、2ストリームの行列エンコーダを設計し、質問とコンテキスト間の書き直し関係と、自然言語と構造化スキーマの関係をリンクするスキーマを共同でモデル化する。
論文 参考訳(メタデータ) (2023-05-11T08:45:55Z) - Prompting GPT-3.5 for Text-to-SQL with De-semanticization and Skeleton
Retrieval [17.747079214502673]
Text-to-は、自然言語の質問を構造化されたクエリ言語()に変換し、データベースから情報を取得するタスクである。
本稿では,テキスト・トゥ・テキストのための LLM ベースのフレームワークを提案する。
我々は,疑問骨格を抽出する非意味化機構を設計し,その構造的類似性に基づいて類似した例を検索する。
論文 参考訳(メタデータ) (2023-04-26T06:02:01Z) - Towards Generalizable and Robust Text-to-SQL Parsing [77.18724939989647]
本稿では,タスク分解,知識獲得,知識構成からなる新しいTKKフレームワークを提案する。
このフレームワークは,Spider,SParC,Co.データセット上でのすべてのシナリオと最先端のパフォーマンスに有効であることを示す。
論文 参考訳(メタデータ) (2022-10-23T09:21:27Z) - Weakly Supervised Text-to-SQL Parsing through Question Decomposition [53.22128541030441]
我々は最近提案されたQDMR(QDMR)という意味表現を活用している。
質問やQDMR構造(非専門家によって注釈付けされたり、自動予測されたりする)、回答が与えられたら、我々は自動的にsqlクエリを合成できる。
本結果は,NL-ベンチマークデータを用いて訓練したモデルと,弱い教師付きモデルが競合することを示す。
論文 参考訳(メタデータ) (2021-12-12T20:02:42Z) - Open Domain Question Answering over Virtual Documents: A Unified
Approach for Data and Text [62.489652395307914]
我々は、知識集約型アプリケーションのための構造化知識を符号化する手段として、Data-to-text法、すなわち、オープンドメイン質問応答(QA)を用いる。
具体的には、ウィキペディアとウィキソースの3つのテーブルを付加知識源として使用する、データとテキスト上でのオープンドメインQAのための冗長化-レトリバー・リーダー・フレームワークを提案する。
UDT-QA(Unified Data and Text QA)は,知識インデックスの拡大を効果的に活用できることを示す。
論文 参考訳(メタデータ) (2021-10-16T00:11:21Z) - Data Augmentation with Hierarchical SQL-to-Question Generation for
Cross-domain Text-to-SQL Parsing [40.65143087243074]
本稿では,単純なデータ拡張フレームワークを提案する。
まず、データベースを与えられたら、抽象構文木文法citeyintranxに基づいて大量のsqlクエリを自動的に生成します。
第2に,高品質自然言語問題を得るための階層的sql-to-question生成モデルを提案する。
論文 参考訳(メタデータ) (2021-03-03T07:37:38Z) - Did You Ask a Good Question? A Cross-Domain Question Intention
Classification Benchmark for Text-to-SQL [32.946103197082124]
Triageは、最初のクロスドメインテキストツークエスト分類ベンチマークである。
4種類の解答不可能な質問と解答可能な質問を区別するモデルが必要である。
RoBERTaモデルは、テストセット上で60%のF1スコアを達成する。
論文 参考訳(メタデータ) (2020-10-23T19:36:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。