論文の概要: DocTabQA: Answering Questions from Long Documents Using Tables
- arxiv url: http://arxiv.org/abs/2408.11490v1
- Date: Wed, 21 Aug 2024 10:01:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-22 17:39:23.917144
- Title: DocTabQA: Answering Questions from Long Documents Using Tables
- Title(参考訳): DocTabQA: テーブルを使って長いドキュメントから質問を答える
- Authors: Haochen Wang, Kai Hu, Haoyu Dong, Liangcai Gao,
- Abstract要約: 本稿では,DocTabQAと呼ばれる質問応答(QA)の新たな問題設定について検討する。
この設定内では、長いドキュメントが与えられたら、答を文書の内容から直接導かれる構造化テーブルに整理することで質問に答えることが目的である。
我々はQTabAデータセットを導入し,300の財務文書と1.5kの質問表を手作業でアノテートした。
本稿では,DocTabTalkと呼ばれる2段階のフレームワークについて述べる。
- 参考スコア(独自算出の注目度): 16.3130447078524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a new problem setting of question answering (QA), referred to as DocTabQA. Within this setting, given a long document, the goal is to respond to questions by organizing the answers into structured tables derived directly from the document's content. Unlike traditional QA approaches which predominantly rely on unstructured text to formulate responses, DocTabQA aims to leverage structured tables as answers to convey information clearly and systematically, thereby enhancing user comprehension and highlighting relationships between data points. To the best of our knowledge, this problem has not been previously explored. In this paper, we introduce the QTabA dataset, encompassing 300 financial documents, accompanied by manually annotated 1.5k question-table pairs. Initially, we leverage Large Language Models (LLMs) such as GPT-4 to establish a baseline. However, it is widely acknowledged that LLMs encounter difficulties when tasked with generating intricate, structured outputs from long input sequences. To overcome these challenges, we present a two-stage framework, called DocTabTalk, which initially retrieves relevant sentences from extensive documents and subsequently generates hierarchical tables based on these identified sentences. DocTabTalk incorporates two key technological innovations: AlignLLaMA and TabTalk, which are specifically tailored to assist GPT-4 in tackling DocTabQA, enabling it to generate well-structured, hierarchical tables with improved organization and clarity. Comprehensive experimental evaluations conducted on both QTabA and RotoWire datasets demonstrate that our DocTabTalk significantly enhances the performances of the GPT-4 in our proposed DocTabQA task and the table generation task. The code and dataset are available at https://github.com/SmileWHC/DocTabQA for further research.
- Abstract(参考訳): 本稿では,DocTabQAと呼ばれる質問応答(QA)の新たな問題設定について検討する。
この設定内では、長いドキュメントが与えられたら、答を文書の内容から直接導かれる構造化テーブルに整理することで質問に答えることが目的である。
従来のQAアプローチとは異なり、DocTabQAは構造化されたテーブルを回答として活用し、情報を明確かつ体系的に伝達することで、ユーザの理解を深め、データポイント間の関係を強調する。
我々の知る限りでは、この問題は以前にも検討されていない。
本稿では,300の財務文書を含むQTabAデータセットについて紹介する。
まず、GPT-4のような大規模言語モデル(LLM)を利用してベースラインを確立する。
しかし、LLMが長い入力シーケンスから複雑な構造化出力を生成するのに困難に直面することは広く認識されている。
これらの課題を克服するために、DocTabTalkと呼ばれる2段階のフレームワークを提案する。
DocTabTalkには2つの重要な技術革新が含まれている。AlignLLaMAとTabTalkは、DocTabQAに取り組む際に、GPT-4を支援するために特別に調整されている。
QTabAとRotoWireの両方で実施した総合的な実験により、提案したDocTabQAタスクとテーブル生成タスクにおいて、我々のDocTabTalkはGPT-4の性能を大幅に向上させることが示された。
コードとデータセットは、さらなる研究のためにhttps://github.com/SmileWHC/DocTabQAで入手できる。
関連論文リスト
- Evaluation of Table Representations to Answer Questions from Tables in Documents : A Case Study using 3GPP Specifications [0.650923326742559]
関連するチャンクの点におけるテーブルの表現は明確ではない。
各セルに対応するテーブルヘッダ情報を含むローレベル表現は、検索性能を向上させる。
論文 参考訳(メタデータ) (2024-08-30T04:40:35Z) - MFORT-QA: Multi-hop Few-shot Open Rich Table Question Answering [3.1651118728570635]
今日の急成長する業界では、専門家は大量の文書を要約し、毎日重要な情報を抽出するという課題に直面している。
この課題に対処するために、テーブル質問回答(QA)のアプローチを開発し、関連する情報を抽出した。
近年のLarge Language Models (LLMs) の進歩により,プロンプトを用いて表データから情報を取り出す新たな可能性が高まっている。
論文 参考訳(メタデータ) (2024-03-28T03:14:18Z) - Large Language Models are Complex Table Parsers [26.66460264175336]
本稿では,複合表QAの課題に対処するため,GPT-3.5を導入することを提案する。
具体的には、各セルの階層構造、位置情報、およびコンテンツをデータセットとしてエンコードする。
本研究では,各タスクの意味の説明的記述によるプロンプトテンプレートの強化により,階層的認識構造能力を効果的に向上する。
論文 参考訳(メタデータ) (2023-12-13T01:34:42Z) - PDFTriage: Question Answering over Long, Structured Documents [60.96667912964659]
構造化文書をプレーンテキストとして表現することは、これらの文書をリッチな構造でユーザ精神モデルと矛盾する。
本稿では,構造や内容に基づいて,モデルがコンテキストを検索できるPDFTriageを提案する。
ベンチマークデータセットは,80以上の構造化文書に900以上の人間が生成した質問からなる。
論文 参考訳(メタデータ) (2023-09-16T04:29:05Z) - MultiTabQA: Generating Tabular Answers for Multi-Table Question
Answering [61.48881995121938]
実世界のクエリは本質的に複雑で、リレーショナルデータベースやWebページ内の複数のテーブルにまたがることが多い。
我々のモデルであるMultiTabQAは、複数のテーブル上の質問に答えるだけでなく、表形式の回答を生成するために一般化する。
論文 参考訳(メタデータ) (2023-05-22T08:25:15Z) - Doc2SoarGraph: Discrete Reasoning over Visually-Rich Table-Text
Documents via Semantic-Oriented Hierarchical Graphs [79.0426838808629]
視覚的にリッチなテーブルテキスト文書に答えるTAT-DQAを提案する。
具体的には、離散推論機能を強化した新しいDoc2SoarGraphフレームワークを提案する。
我々は,TAT-DQAデータセットに関する広範な実験を行い,提案したフレームワークは,テストセット上でのエクサクティマッチ(EM)とF1スコアでそれぞれ17.73%,F1スコアで16.91%の最高のベースラインモデルを上回る結果を得た。
論文 参考訳(メタデータ) (2023-05-03T07:30:32Z) - TabIQA: Table Questions Answering on Business Document Images [3.9993134366218857]
本稿では,ビジネス文書イメージに関する疑問に答えるために,TabIQAという新しいパイプラインを提案する。
TabIQAは、1)最先端のディープラーニング技術を組み合わせて、画像からテーブルの内容と構造情報を抽出し、2)数値データ、テキストベース情報、構造化テーブルからの複雑なクエリに関する様々な質問に答える。
論文 参考訳(メタデータ) (2023-03-27T06:31:21Z) - Towards Complex Document Understanding By Discrete Reasoning [77.91722463958743]
VQA(Document Visual Question Answering)は、自然言語による質問に答えるために、視覚的に豊富なドキュメントを理解することを目的としている。
我々は3,067の文書ページと16,558の質問応答ペアからなる新しいドキュメントVQAデータセットTAT-DQAを紹介する。
我々は,テキスト,レイアウト,視覚画像など,多要素の情報を考慮に入れたMHSTという新しいモデルを開発し,異なるタイプの質問にインテリジェントに対処する。
論文 参考訳(メタデータ) (2022-07-25T01:43:19Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - A Graph Representation of Semi-structured Data for Web Question
Answering [96.46484690047491]
本稿では、半構造化データとそれらの関係の構成要素の体系的分類に基づいて、Webテーブルとリストのグラフ表現を提案する。
本手法は,最先端のベースラインに対してF1スコアを3.90ポイント向上させる。
論文 参考訳(メタデータ) (2020-10-14T04:01:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。