論文の概要: Open Question Answering over Tables and Text
- arxiv url: http://arxiv.org/abs/2010.10439v2
- Date: Wed, 10 Feb 2021 08:21:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 06:02:55.145983
- Title: Open Question Answering over Tables and Text
- Title(参考訳): 表とテキストに答えるオープンな質問
- Authors: Wenhu Chen, Ming-Wei Chang, Eva Schlinger, William Wang, William W.
Cohen
- Abstract要約: オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
- 参考スコア(独自算出の注目度): 55.8412170633547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In open question answering (QA), the answer to a question is produced by
retrieving and then analyzing documents that might contain answers to the
question. Most open QA systems have considered only retrieving information from
unstructured text. Here we consider for the first time open QA over both
tabular and textual data and present a new large-scale dataset Open
Table-and-Text Question Answering (OTT-QA) to evaluate performance on this
task. Most questions in OTT-QA require multi-hop inference across tabular data
and unstructured text, and the evidence required to answer a question can be
distributed in different ways over these two types of input, making evidence
retrieval challenging -- our baseline model using an iterative retriever and
BERT-based reader achieves an exact match score less than 10%. We then propose
two novel techniques to address the challenge of retrieving and aggregating
evidence for OTT-QA. The first technique is to use "early fusion" to group
multiple highly relevant tabular and textual units into a fused block, which
provides more context for the retriever to search for. The second technique is
to use a cross-block reader to model the cross-dependency between multiple
retrieved evidence with global-local sparse attention. Combining these two
techniques improves the score significantly, to above 27%.
- Abstract(参考訳): open question answering (qa) では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
ここでは、表データとテキストデータの両方に対して初めてQAを開き、このタスクのパフォーマンスを評価するために、新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
OTT-QAのほとんどの質問は、表形式のデータと非構造化テキストにまたがるマルチホップ推論を必要としており、質問に答えるために必要なエビデンスは、これらの2種類の入力に対して異なる方法で分散することができ、エビデンス検索を困難にしている。
次に,OTT-QAの証拠を回収・集約する2つの新しい手法を提案する。
第一の手法は「早期融合」を用いて複数の関連性の高い表とテキストのユニットを融合ブロックにまとめることであり、検索者が検索するコンテキストをより多く提供する。
第2のテクニックは、クロスブロックリーダを使用して、グローバルローカルな注意をそらした複数の検索された証拠間の相互依存をモデル化する。
これら2つのテクニックを組み合わせることで、スコアが27%以上向上する。
関連論文リスト
- TTQA-RS- A break-down prompting approach for Multi-hop Table-Text Question Answering with Reasoning and Summarization [3.531533402602335]
マルチホップテーブル-テキストQAは、テーブルとテキストの間に複数のホップを必要とする。
我々のモデルはテーブルテキスト情報検索に拡張された検索器を使用する。
我々の実験は、素早いアプローチの可能性を実証している。
論文 参考訳(メタデータ) (2024-06-20T20:55:38Z) - MFORT-QA: Multi-hop Few-shot Open Rich Table Question Answering [3.1651118728570635]
今日の急成長する業界では、専門家は大量の文書を要約し、毎日重要な情報を抽出するという課題に直面している。
この課題に対処するために、テーブル質問回答(QA)のアプローチを開発し、関連する情報を抽出した。
近年のLarge Language Models (LLMs) の進歩により,プロンプトを用いて表データから情報を取り出す新たな可能性が高まっている。
論文 参考訳(メタデータ) (2024-03-28T03:14:18Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Mixed-modality Representation Learning and Pre-training for Joint
Table-and-Text Retrieval in OpenQA [85.17249272519626]
最適化された OpenQA Table-Text Retriever (OTTeR) を提案する。
検索中心の混合モード合成事前学習を行う。
OTTeRはOTT-QAデータセット上でのテーブル・アンド・テキスト検索の性能を大幅に改善する。
論文 参考訳(メタデータ) (2022-10-11T07:04:39Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - When Retriever-Reader Meets Scenario-Based Multiple-Choice Questions [15.528174963480614]
そこで本研究では,単語重み付け機構を用いて関連ラベルのみを暗黙的に管理する,QAVESと呼ばれる共同レトリバー・リーダーモデルを提案する。
QAVESは3つのSQAデータセットにおいて、複数の質問に対する強いベースラインを著しく上回る。
論文 参考訳(メタデータ) (2021-08-31T14:32:04Z) - FeTaQA: Free-form Table Question Answering [33.018256483762386]
FeTaQAは10Kのウィキペディアベースのテーブル、質問、自由形式の回答、テーブルセルペアをサポートする新しいデータセットである。
FeTaQAは、構造化された知識ソースから複数の不連続な事実の検索、推論、および統合後に自由形式のテキスト回答を生成する必要があるため、より困難なテーブル質問回答設定を提供する。
論文 参考訳(メタデータ) (2021-04-01T09:59:40Z) - Tradeoffs in Sentence Selection Techniques for Open-Domain Question
Answering [54.541952928070344]
文選択のためのモデルの2つのグループについて述べる。QAベースのアプローチは、解答候補を特定するための完全なQAシステムを実行し、検索ベースのモデルは、各質問に特に関連する各節の一部を見つける。
非常に軽量なQAモデルは、このタスクではうまく機能するが、検索ベースモデルは高速である。
論文 参考訳(メタデータ) (2020-09-18T23:39:15Z) - Answering Any-hop Open-domain Questions with Iterative Document
Reranking [62.76025579681472]
オープンドメインの問に答える統合QAフレームワークを提案する。
提案手法は,シングルホップおよびマルチホップのオープンドメインQAデータセットにおいて,最先端技術に匹敵する性能を継続的に達成する。
論文 参考訳(メタデータ) (2020-09-16T04:31:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。