論文の概要: Schema2QA: High-Quality and Low-Cost Q&A Agents for the Structured Web
- arxiv url: http://arxiv.org/abs/2001.05609v6
- Date: Tue, 8 Jun 2021 01:30:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 00:13:02.898050
- Title: Schema2QA: High-Quality and Low-Cost Q&A Agents for the Structured Web
- Title(参考訳): Schema2QA:構造化Webのための高品質で低コストなQ&Aエージェント
- Authors: Silei Xu, Giovanni Campagna, Jian Li and Monica S. Lam
- Abstract要約: 質問応答エージェントを構築するには、現在大量の注釈付きデータセットが必要であるが、これは極めて高価である。
本稿では,フィールド毎にいくつかのアノテーションを付加したデータベーススキーマからQ&Aシステムを生成可能なオープンソースツールキットであるugment2QAを提案する。
5.orgドメイン、レストラン、人、映画、本、音楽のQ&Aシステムを生成するためにAR2QAを使用し、クラウドソーシングされた質問に対して、全体的な精度は64%から75%である。
- 参考スコア(独自算出の注目度): 11.387139390711464
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Building a question-answering agent currently requires large annotated
datasets, which are prohibitively expensive. This paper proposes Schema2QA, an
open-source toolkit that can generate a Q&A system from a database schema
augmented with a few annotations for each field. The key concept is to cover
the space of possible compound queries on the database with a large number of
in-domain questions synthesized with the help of a corpus of generic query
templates. The synthesized data and a small paraphrase set are used to train a
novel neural network based on the BERT pretrained model. We use Schema2QA to
generate Q&A systems for five Schema.org domains, restaurants, people, movies,
books and music, and obtain an overall accuracy between 64% and 75% on
crowdsourced questions for these domains. Once annotations and paraphrases are
obtained for a Schema.org schema, no additional manual effort is needed to
create a Q&A agent for any website that uses the same schema. Furthermore, we
demonstrate that learning can be transferred from the restaurant to the hotel
domain, obtaining a 64% accuracy on crowdsourced questions with no manual
effort. Schema2QA achieves an accuracy of 60% on popular restaurant questions
that can be answered using Schema.org. Its performance is comparable to Google
Assistant, 7% lower than Siri, and 15% higher than Alexa. It outperforms all
these assistants by at least 18% on more complex, long-tail questions.
- Abstract(参考訳): 質問応答エージェントを構築するには、現在大量の注釈付きデータセットが必要である。
本稿では,フィールド毎にいくつかのアノテーションを付加したデータベーススキーマからQ&Aシステムを生成するオープンソースツールキットであるSchema2QAを提案する。
キーとなる概念は、データベース上で可能な複合クエリの空間を、ジェネリッククエリテンプレートのコーパスによって合成された多数のドメイン内質問でカバーすることである。
BERT事前訓練モデルに基づいて、合成データと小さなパラフレーズセットを使用して、新しいニューラルネットワークをトレーニングする。
Schema2QAを使用して、5つのSchema.orgドメイン、レストラン、人、映画、本、音楽のQ&Aシステムを生成し、これらのドメインに対するクラウドソースの質問に対して、全体的な精度は64%から75%である。
Schema.orgスキーマに対してアノテーションとパラフレーズが取得されれば、同じスキーマを使用するWebサイトに対してQ&Aエージェントを作成するために、追加の手作業は必要ない。
さらに,レストランからホテルのドメインに学習を移し,手作業なしでクラウドソーシングされた質問に対して64%の精度で回答できることを示した。
Schema2QAは、Schema.orgを使って回答できる人気レストランの質問に対して60%の精度を達成する。
パフォーマンスはGoogle Assistantに匹敵し、Siriより7%低く、Alexaより15%高い。
これは、より複雑で長い質問に対して、これらのアシスタントを少なくとも18%上回ります。
関連論文リスト
- SPINACH: SPARQL-Based Information Navigation for Challenging Real-World Questions [6.933892616704001]
本稿では,Wikidata の "Request a Query" フォーラムでの議論から収集した KBQA データセットである SPINACH データセットを紹介する。
これらの内部クエリの複雑さはKBQAシステムと呼ばれるもので、大きく、しばしば不完全なスキーマを動的に探索し、それらについて推論することができる。
また、人間の専門家が難解な問題に対処するためにどのようにSPARQLを書くかを模倣する、SPINACHとも呼ばれる、コンテキスト内学習KBQAエージェントも導入しています。
論文 参考訳(メタデータ) (2024-07-16T06:18:21Z) - KET-QA: A Dataset for Knowledge Enhanced Table Question Answering [63.56707527868466]
本研究では,TableQAの外部知識源として知識ベース(KB)を用いることを提案する。
すべての質問は、答えるテーブルとサブグラフの両方からの情報を統合する必要がある。
我々は,膨大な知識サブグラフから関連する情報を抽出するために,レトリバー・レゾナー構造パイプラインモデルを設計する。
論文 参考訳(メタデータ) (2024-05-13T18:26:32Z) - TANQ: An open domain dataset of table answered questions [15.323690523538572]
TANQは、複数のソースにまたがる情報からテーブルを構築する必要がある、最初のオープンドメイン質問応答データセットである。
結果の表にあるすべてのセルに対する完全なソース属性を公開し、オープン、オラクル、クローズドブックのセットアップで最先端の言語モデルをベンチマークします。
最も優れたベースラインであるGPT4は、全体的なF1スコア29.1に達し、人間のパフォーマンスを19.7ポイント遅れています。
論文 参考訳(メタデータ) (2024-05-13T14:07:20Z) - QUADRo: Dataset and Models for QUestion-Answer Database Retrieval [97.84448420852854]
質問/回答(q/a)ペアのデータベース(DB)が与えられた場合、同じ質問に対してDBをスキャンすることで、対象の質問に答えることができる。
我々は6.3Mのq/aペアからなる大規模DBを構築し、公開質問を用いて、ニューラルIRとq/aペアリランカに基づく新しいシステムを設計する。
我々は、Bing検索エンジン上に構築されたQAシステムという、Webベースの手法とDBベースのアプローチが競合することを示す。
論文 参考訳(メタデータ) (2023-03-30T00:42:07Z) - Relation-Guided Pre-Training for Open-Domain Question Answering [67.86958978322188]
複雑なオープンドメイン問題を解決するためのRGPT-QA(Relation-Guided Pre-Training)フレームワークを提案する。
RGPT-QAは, 自然質問, TriviaQA, WebQuestionsにおいて, Exact Matchの精度が2.2%, 2.4%, 6.3%向上したことを示す。
論文 参考訳(メタデータ) (2021-09-21T17:59:31Z) - Dual Reader-Parser on Hybrid Textual and Tabular Evidence for Open
Domain Question Answering [78.9863753810787]
世界の知識は構造化データベースに保存されている。
クエリ言語は、複雑な推論を必要とする質問に答えるだけでなく、完全な説明可能性を提供することができる。
論文 参考訳(メタデータ) (2021-08-05T22:04:13Z) - AIT-QA: Question Answering Dataset over Complex Tables in the Airline
Industry [30.330772077451048]
ドメイン固有のテーブルQAデータセットAIT-QA(Industry Table QA)を紹介する。
このデータセットは、米国証券取引委員会(SEC)の提出書類から抽出された116のテーブル上で、人間のアノテータによって書かれた515の質問から成り立っている。
また、階層的ヘッダー、ドメイン固有の用語、言い換え形を必要とするものをマークして、質問の性質に関するアノテーションも提供します。
論文 参考訳(メタデータ) (2021-06-24T12:14:18Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - AutoQA: From Databases To QA Semantic Parsers With Only Synthetic
Training Data [6.522647000820583]
AutoQAは、手作業なしでデータベース上の質問に答えるセマンティクスを生成する。
自動言い換えとテンプレートベースの属性解析を組み合わせて、式の代替表現を見つける。
解答精度は69.8%で、最先端のゼロショットモデルよりも16.4%高く、人間のデータで訓練されたモデルよりもわずか5.2%低い。
論文 参考訳(メタデータ) (2020-10-09T21:06:57Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z) - TableQnA: Answering List Intent Queries With Web Tables [12.941073798838167]
我々は、HTMLテーブルでクエリの2つのクラスに答えることに集中する。
既存のアプローチでは、候補者から回答を選択するために機械学習モデルを訓練している。
構造認識マッチングを計算し、機械学習モデルを訓練する新機能を開発した。
論文 参考訳(メタデータ) (2020-01-10T01:43:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。