論文の概要: FeTaQA: Free-form Table Question Answering
- arxiv url: http://arxiv.org/abs/2104.00369v1
- Date: Thu, 1 Apr 2021 09:59:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 00:10:24.260306
- Title: FeTaQA: Free-form Table Question Answering
- Title(参考訳): FeTaQA:無料のテーブル質問回答
- Authors: Linyong Nan, Chiachun Hsieh, Ziming Mao, Xi Victoria Lin, Neha Verma,
Rui Zhang, Wojciech Kry\'sci\'nski, Nick Schoelkopf, Riley Kong, Xiangru
Tang, Murori Mutuma, Ben Rosand, Isabel Trindade, Renusree Bandaru, Jacob
Cunningham, Caiming Xiong, Dragomir Radev
- Abstract要約: FeTaQAは10Kのウィキペディアベースのテーブル、質問、自由形式の回答、テーブルセルペアをサポートする新しいデータセットである。
FeTaQAは、構造化された知識ソースから複数の不連続な事実の検索、推論、および統合後に自由形式のテキスト回答を生成する必要があるため、より困難なテーブル質問回答設定を提供する。
- 参考スコア(独自算出の注目度): 33.018256483762386
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Existing table question answering datasets contain abundant factual questions
that primarily evaluate the query and schema comprehension capability of a
system, but they fail to include questions that require complex reasoning and
integration of information due to the constraint of the associated short-form
answers. To address these issues and to demonstrate the full challenge of table
question answering, we introduce FeTaQA, a new dataset with 10K Wikipedia-based
{table, question, free-form answer, supporting table cells} pairs. FeTaQA
yields a more challenging table question answering setting because it requires
generating free-form text answers after retrieval, inference, and integration
of multiple discontinuous facts from a structured knowledge source. Unlike
datasets of generative QA over text in which answers are prevalent with copies
of short text spans from the source, answers in our dataset are human-generated
explanations involving entities and their high-level relations. We provide two
benchmark methods for the proposed task: a pipeline method based on
semantic-parsing-based QA systems and an end-to-end method based on large
pretrained text generation models, and show that FeTaQA poses a challenge for
both methods.
- Abstract(参考訳): 既存のテーブル質問応答データセットには、システムのクエリおよびスキーマ理解能力を主に評価する豊富な事実的質問が含まれているが、関連する短い形式の回答の制約のために、複雑な推論と情報の統合を必要とする質問を含まない。
これらの問題に対処し,テーブル質問応答の完全な課題を示すために,10K Wikipediaベースのテーブル,質問,自由形式の回答,テーブルセルのサポートなどを備えた新しいデータセットFeTaQAを導入する。
FeTaQAは、構造化された知識ソースから複数の不連続な事実を検索、推論、統合した後、自由形式のテキスト回答を生成する必要があるため、より困難なテーブル質問応答設定が得られる。
情報源からの短いテキストのコピーで回答が広まるテキスト上の生成的QAのデータセットとは異なり、データセットの回答はエンティティとその高レベルな関係を含む人間による説明である。
提案手法は,意味解析に基づくQAシステムに基づくパイプライン手法と,大規模な事前学習されたテキスト生成モデルに基づくエンドツーエンド手法の2つのベンチマーク手法であり,FeTaQAが両手法に挑戦することを示す。
関連論文リスト
- MFORT-QA: Multi-hop Few-shot Open Rich Table Question Answering [3.1651118728570635]
今日の急成長する業界では、専門家は大量の文書を要約し、毎日重要な情報を抽出するという課題に直面している。
この課題に対処するために、テーブル質問回答(QA)のアプローチを開発し、関連する情報を抽出した。
近年のLarge Language Models (LLMs) の進歩により,プロンプトを用いて表データから情報を取り出す新たな可能性が高まっている。
論文 参考訳(メタデータ) (2024-03-28T03:14:18Z) - PCoQA: Persian Conversational Question Answering Dataset [12.07607688189035]
PCoQAデータセットは、9,026のコンテキスト駆動質問を含む情報検索ダイアログを含むリソースである。
PCoQAは、以前の質問応答データセットと比較して、新しい課題を示すように設計されている。
本稿では,PCoQAデータセットを包括的に提示するだけでなく,各種ベンチマークモデルの性能も報告する。
論文 参考訳(メタデータ) (2023-12-07T15:29:34Z) - Long-form Question Answering: An Iterative Planning-Retrieval-Generation
Approach [28.849548176802262]
長文質問応答(LFQA)は,段落の形で詳細な回答を生成するため,課題となる。
本稿では,反復計画,検索,生成を伴うLFQAモデルを提案する。
我々のモデルはLFQAタスクの様々なテキストおよび実測値の最先端モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-15T21:22:27Z) - QTSumm: Query-Focused Summarization over Tabular Data [58.62152746690958]
人々は主に、データ分析を行うか、特定の質問に答えるためにテーブルをコンサルティングします。
そこで本研究では,テキスト生成モデルに人間的な推論を行なわなければならない,クエリ中心のテーブル要約タスクを新たに定義する。
このタスクには,2,934テーブル上の7,111の人間注釈付きクエリ-サマリーペアを含む,QTSummという新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:43:51Z) - MultiTabQA: Generating Tabular Answers for Multi-Table Question
Answering [61.48881995121938]
実世界のクエリは本質的に複雑で、リレーショナルデータベースやWebページ内の複数のテーブルにまたがることが多い。
我々のモデルであるMultiTabQAは、複数のテーブル上の質問に答えるだけでなく、表形式の回答を生成するために一般化する。
論文 参考訳(メタデータ) (2023-05-22T08:25:15Z) - LIQUID: A Framework for List Question Answering Dataset Generation [17.86721740779611]
ラベルなしコーパスからリストQAデータセットを生成するためのフレームワークであるLIQUIDを提案する。
まず、ウィキペディアまたはPubMedからの節を要約に変換し、要約されたテキストから名前付きエンティティを候補回答として抽出する。
次に、抽出されたエンティティと元のパスを含む既成の質問生成器を用いて質問を生成する。
合成データを用いて,MultiSpanQAでは5.0点,Quorefでは1.9点,BioASQベンチマークでは2.8点の精度で,過去のベストリストQAモデルの性能を大幅に向上させた。
論文 参考訳(メタデータ) (2023-02-03T12:42:45Z) - Dual Reader-Parser on Hybrid Textual and Tabular Evidence for Open
Domain Question Answering [78.9863753810787]
世界の知識は構造化データベースに保存されている。
クエリ言語は、複雑な推論を必要とする質問に答えるだけでなく、完全な説明可能性を提供することができる。
論文 参考訳(メタデータ) (2021-08-05T22:04:13Z) - TAT-QA: A Question Answering Benchmark on a Hybrid of Tabular and
Textual Content in Finance [71.76018597965378]
TAT-QAと呼ばれるタブラデータとテクスチャデータの両方を含む新しい大規模な質問応答データセットを構築します。
本稿では,テーブルとテキストの両方を推論可能な新しいQAモデルであるTAGOPを提案する。
論文 参考訳(メタデータ) (2021-05-17T06:12:06Z) - MultiModalQA: Complex Question Answering over Text, Tables and Images [52.25399438133274]
テキスト,テーブル,画像に対する共同推論を必要とするデータセットであるMultiModalQAを提案する。
大規模で複雑なマルチモーダル質問を生成するための新しいフレームワークを使用してMMQAを作成します。
次に、単一のモダリティから回答できる質問を受け取り、それらを組み合わせてクロスモーダルな質問を生成する形式言語を定義します。
論文 参考訳(メタデータ) (2021-04-13T09:14:28Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。