論文の概要: Bew: Towards Answering Business-Entity-Related Web Questions
- arxiv url: http://arxiv.org/abs/2012.05818v1
- Date: Thu, 10 Dec 2020 16:46:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:18:12.266675
- Title: Bew: Towards Answering Business-Entity-Related Web Questions
- Title(参考訳): Bew: ビジネスエンティティ関連のWeb質問に答える
- Authors: Qingqing Cao, Oriana Riva, Aruna Balasubramanian, Niranjan
Balasubramanian
- Abstract要約: 我々はBewQAという,Bewの質問に答えるシステムを紹介した。
ビジネス関連のWebページのテンプレートをマイニングすることで、BewQAがどのように質問に答えるかを示す。
レストランドメインの1066 Bewの質問と地道な答えの新しいデータセットをクラウドソースします。
- 参考スコア(独自算出の注目度): 13.496040479402605
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present BewQA, a system specifically designed to answer a class of
questions that we call Bew questions. Bew questions are related to
businesses/services such as restaurants, hotels, and movie theaters; for
example, "Until what time is happy hour?". These questions are challenging to
answer because the answers are found in open-domain Web, are present in short
sentences without surrounding context, and are dynamic since the webpage
information can be updated frequently. Under these conditions, existing QA
systems perform poorly. We present a practical approach, called BewQA, that can
answer Bew queries by mining a template of the business-related webpages and
using the template to guide the search. We show how we can extract the template
automatically by leveraging aggregator websites that aggregate information
about business entities in a domain (e.g., restaurants). We answer a given
question by identifying the section from the extracted template that is most
likely to contain the answer. By doing so we can extract the answers even when
the answer span does not have sufficient context. Importantly, BewQA does not
require any training. We crowdsource a new dataset of 1066 Bew questions and
ground-truth answers in the restaurant domain. Compared to state-of-the-art QA
models, BewQA has a 27 percent point improvement in F1 score. Compared to a
commercial search engine, BewQA answered correctly 29% more Bew questions.
- Abstract(参考訳): bewqaは、bew questionsと呼ばれる一連の質問に答えるために特別に設計されたシステムです。
レストラン、ホテル、映画館などのビジネスやサービスに関連する質問は、「何時まで幸せな時間か?」などである。
これらの質問は、答がオープンドメインのWebで見出され、周囲のコンテキストなしで短い文で表示され、Webページ情報が頻繁に更新されるため、答えが難しい。
これらの条件下では、既存のQAシステムは性能が良くない。
我々は,ビジネス関連のwebページのテンプレートをマイニングし,テンプレートを用いて検索のガイドを行う,bewqaと呼ばれる実用的なアプローチを提案する。
ドメイン内のビジネスエンティティに関する情報を集約するアグリゲータWebサイト(レストランなど)を利用してテンプレートを自動的に抽出する方法を示す。
私たちは、最も答えを含む可能性が高い抽出されたテンプレートからセクションを識別することで、ある質問に答えます。
そうすることで、回答が十分なコンテキストを持っていなくても、答えを抽出できます。
重要な点として、BewQAはトレーニングを一切必要としない。
レストランのドメインで1066 Bewの質問と真実の回答のデータセットをクラウドソースしています。
最先端のQAモデルと比較して、BewQAはF1スコアの27%改善している。
商用検索エンジンと比較すると、BewQAは正確に29%以上のBew質問に答えた。
関連論文リスト
- Open Domain Question Answering with Conflicting Contexts [55.739842087655774]
あいまいでオープンなドメインの質問の25%は、Google Searchを使って検索すると、コンフリクトのあるコンテキストにつながります。
我々はアノテータに正しい回答の選択についての説明を依頼する。
論文 参考訳(メタデータ) (2024-10-16T07:24:28Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - QAMPARI: An Open-domain Question Answering Benchmark for Questions with
Many Answers from Multiple Paragraphs [42.843866049949206]
本稿では,質問応答がエンティティのリストであるODQAベンチマークであるQAMPARIを紹介する。
我々は、(a)ウィキペディアの知識グラフと表から複数の回答で質問を生成することによりQAMPARIを作成し、(b)ウィキペディアの段落で裏付ける証拠と自動的に回答をペアリングし、(c)質問を手動で言い換え、各回答を検証することで、QAMPARIを作成する。
我々は、検索・読解系からODQAモデルを訓練し、QAMPARIは経路検索と解答生成の両方の観点から困難であり、F1スコアが32.8に達することを発見した。
論文 参考訳(メタデータ) (2022-05-25T11:21:30Z) - SituatedQA: Incorporating Extra-Linguistic Contexts into QA [7.495151447459443]
SituatedQA(SituatedQA)は,時間的・地理的文脈を考慮に入れた質問に対して,システムが正しい回答を提示しなければならない,オープン検索型QAデータセットである。
質問を求める情報のかなりの割合は、文脈に依存した回答であることがわかった。
我々の研究は、既存のモデルが頻繁に更新される、あるいは珍しい場所から回答を得るのに苦労していることを示している。
論文 参考訳(メタデータ) (2021-09-13T17:53:21Z) - QAConv: Question Answering on Informative Conversations [85.2923607672282]
ビジネスメールやパネルディスカッション,作業チャネルなど,情報的な会話に重点を置いています。
合計で、スパンベース、フリーフォーム、および回答不能な質問を含む34,204のQAペアを収集します。
論文 参考訳(メタデータ) (2021-05-14T15:53:05Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - GooAQ: Open Question Answering with Diverse Answer Types [63.06454855313667]
さまざまな回答型を持つ大規模データセットであるGooAQを紹介する。
このデータセットには500万の質問と300万の回答が含まれている。
論文 参考訳(メタデータ) (2021-04-18T05:40:39Z) - Open-Domain Question Answering Goes Conversational via Question
Rewriting [15.174807142080192]
会話コンテキストにおける質問書き直しのための新しいデータセット(QreCC)を導入する。
QReCCの課題は、1000万のWebページの集合の中で会話による質問に対する答えを見つけることである。
以上の結果から,QReCCデータセットの最初のベースラインはF1が19.10であり,人間の上限が75.45であるのに対して,セットアップの困難さと改善の余地が大きいことが示唆された。
論文 参考訳(メタデータ) (2020-10-10T04:28:42Z) - AmbigQA: Answering Ambiguous Open-domain Questions [99.59747941602684]
我々はAmbigQAを紹介した。AmbigQAは、あらゆる可能な答えを見つけることを含む、新しいオープンドメインの質問応答タスクである。
この課題を研究するために,NQ-openから14,042質問をカバーしたデータセットAmbigNQを構築した。
NQオープンの質問の半数以上が曖昧で、イベントやエンティティ参照といった曖昧さの源泉が多様であることがわかった。
論文 参考訳(メタデータ) (2020-04-22T15:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。