論文の概要: TSQA: Tabular Scenario Based Question Answering
- arxiv url: http://arxiv.org/abs/2101.11429v1
- Date: Thu, 14 Jan 2021 02:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 10:50:18.466029
- Title: TSQA: Tabular Scenario Based Question Answering
- Title(参考訳): TSQA: 言語シナリオに基づく質問応答
- Authors: Xiao Li, Yawei Sun, Gong Cheng
- Abstract要約: シナリオベースの質問応答(SQA)が研究の関心を集めている。
本研究を支援するため,GeoTSQAを構築した。
テーブル・トゥ・テキストの新しいジェネレータであるTTGenにより、最新のMRCメソッドを拡張します。
- 参考スコア(独自算出の注目度): 14.92495213480887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scenario-based question answering (SQA) has attracted an increasing research
interest. Compared with the well-studied machine reading comprehension (MRC),
SQA is a more challenging task: a scenario may contain not only a textual
passage to read but also structured data like tables, i.e., tabular scenario
based question answering (TSQA). AI applications of TSQA such as answering
multiple-choice questions in high-school exams require synthesizing data in
multiple cells and combining tables with texts and domain knowledge to infer
answers. To support the study of this task, we construct GeoTSQA. This dataset
contains 1k real questions contextualized by tabular scenarios in the geography
domain. To solve the task, we extend state-of-the-art MRC methods with TTGen, a
novel table-to-text generator. It generates sentences from variously
synthesized tabular data and feeds the downstream MRC method with the most
useful sentences. Its sentence ranking model fuses the information in the
scenario, question, and domain knowledge. Our approach outperforms a variety of
strong baseline methods on GeoTSQA.
- Abstract(参考訳): シナリオベースの質問応答(SQA)が研究の関心を集めている。
SQAは、よく研究されている機械読解(MRC)と比較すると、より困難なタスクである: シナリオは読み込むためのテキストパスだけでなく、テーブルのような構造化されたデータ、すなわち表シナリオベースの質問応答(TSQA)も含む。
TSQAのAI応用、例えば高校の試験で複数の選択質問に答えるには、複数のセルでデータを合成し、答えを推測するためにテーブルとテキストとドメイン知識を組み合わせる必要がある。
本研究を支援するため,GeoTSQAを構築した。
このデータセットには、地理領域の表のシナリオによってコンテキスト化された1万個の実質問が含まれている。
この課題を解決するため、新しいテーブル・トゥ・テキスト・ジェネレータであるTTGenを用いて最先端のMRC手法を拡張した。
様々な合成表データから文を生成し、最も有用な文で下流のMCC法をフィードする。
その文のランク付けモデルは、シナリオ、質問、ドメイン知識の情報を融合します。
提案手法はGeoTSQAの様々な強力なベースライン法より優れている。
関連論文リスト
- PACIFIC: Towards Proactive Conversational Question Answering over
Tabular and Textual Data in Finance [96.06505049126345]
我々はPACIFICという新しいデータセットを提案する。既存のCQAデータセットと比較すると、PACIFICは(i)活動性、(ii)数値推論、(iii)表とテキストのハイブリッドコンテキストの3つの重要な特徴を示す。
質問生成とCQAを組み合わせたPCQA(Proactive Conversational Question Answering)に基づいて,新しいタスクを定義する。
UniPCQAはPCQAのすべてのサブタスク上でマルチタスク学習を行い、Seeq2Seqの上位$kのサンプルをクロスバリデーションすることで、マルチタスク学習におけるエラー伝搬問題を緩和するための単純なアンサンブル戦略を取り入れている。
論文 参考訳(メタデータ) (2022-10-17T08:06:56Z) - Activity report analysis with automatic single or multispan answer
extraction [0.21485350418225244]
我々は,質問内容や質問内容に応じて,単一回答と複数回答のペアによる新しいスマートホーム環境データセットを作成する。
実験の結果,提案手法はデータセット上での最先端QAモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-09-09T06:33:29Z) - Towards Complex Document Understanding By Discrete Reasoning [77.91722463958743]
VQA(Document Visual Question Answering)は、自然言語による質問に答えるために、視覚的に豊富なドキュメントを理解することを目的としている。
我々は3,067の文書ページと16,558の質問応答ペアからなる新しいドキュメントVQAデータセットTAT-DQAを紹介する。
我々は,テキスト,レイアウト,視覚画像など,多要素の情報を考慮に入れたMHSTという新しいモデルを開発し,異なるタイプの質問にインテリジェントに対処する。
論文 参考訳(メタデータ) (2022-07-25T01:43:19Z) - TAT-QA: A Question Answering Benchmark on a Hybrid of Tabular and
Textual Content in Finance [71.76018597965378]
TAT-QAと呼ばれるタブラデータとテクスチャデータの両方を含む新しい大規模な質問応答データセットを構築します。
本稿では,テーブルとテキストの両方を推論可能な新しいQAモデルであるTAGOPを提案する。
論文 参考訳(メタデータ) (2021-05-17T06:12:06Z) - FeTaQA: Free-form Table Question Answering [33.018256483762386]
FeTaQAは10Kのウィキペディアベースのテーブル、質問、自由形式の回答、テーブルセルペアをサポートする新しいデータセットである。
FeTaQAは、構造化された知識ソースから複数の不連続な事実の検索、推論、および統合後に自由形式のテキスト回答を生成する必要があるため、より困難なテーブル質問回答設定を提供する。
論文 参考訳(メタデータ) (2021-04-01T09:59:40Z) - ComQA:Compositional Question Answering via Hierarchical Graph Neural
Networks [47.12013005600986]
我々は,120万以上の人間ラベル質問を含む大規模構成質問応答データセットを提案する。
ComQA問題に対処するために,低レベル語から高レベル語までの文書を表す階層型グラフニューラルネットワークを提案する。
提案モデルは,先行する機械読解法や事前学習法に比べて大幅に改善する。
論文 参考訳(メタデータ) (2021-01-16T08:23:27Z) - XTQA: Span-Level Explanations of the Textbook Question Answering [32.67922842489546]
テキスト質問回答(英語: Textbook Question Answering、TQA)とは、大きなマルチモーダルコンテキストを前提として、ダイアグラムやノンダイアグラムの質問に答えるべきタスクである。
我々は,提案した粗粒度アルゴリズムに基づいて,TQAの幅レベルのeXplanationsに向けた新しいアーキテクチャを提案する。
実験結果から,XTQAはベースラインに比べて最先端性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-11-25T11:44:12Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。