論文の概要: HCT-QA: A Benchmark for Question Answering on Human-Centric Tables
- arxiv url: http://arxiv.org/abs/2504.20047v1
- Date: Sun, 09 Mar 2025 11:02:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-22 23:32:14.37797
- Title: HCT-QA: A Benchmark for Question Answering on Human-Centric Tables
- Title(参考訳): HCT-QA:人間中心テーブルの質問応答ベンチマーク
- Authors: Mohammad S. Ahmad, Zan A. Naeem, Michaël Aupetit, Ahmed Elmagarmid, Mohamed Eltabakh, Xiasong Ma, Mourad Ouzzani, Chaoyi Ruan,
- Abstract要約: 人中心テーブル(HCT)は、高いビジネス価値、複雑なレイアウト、大規模な運用能力の制限、時には重要な洞察のための唯一のデータソースとして機能する。
本稿では,HCTの広範なベンチマークであるHCT-QAについて述べる。
- 参考スコア(独自算出の注目度): 2.8913928436305505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tabular data embedded within PDF files, web pages, and other document formats are prevalent across numerous sectors such as government, engineering, science, and business. These human-centric tables (HCTs) possess a unique combination of high business value, intricate layouts, limited operational power at scale, and sometimes serve as the only data source for critical insights. However, their complexity poses significant challenges to traditional data extraction, processing, and querying methods. While current solutions focus on transforming these tables into relational formats for SQL queries, they fall short in handling the diverse and complex layouts of HCTs and hence being amenable to querying. This paper describes HCT-QA, an extensive benchmark of HCTs, natural language queries, and related answers on thousands of tables. Our dataset includes 2,188 real-world HCTs with 9,835 QA pairs and 4,679 synthetic tables with 67.5K QA pairs. While HCTs can be potentially processed by different type of query engines, in this paper, we focus on Large Language Models as potential engines and assess their ability in processing and querying such tables.
- Abstract(参考訳): PDFファイル、ウェブページ、その他の文書形式に埋め込まれたタブラルデータは、政府、工学、科学、ビジネスなど、様々な分野に広く浸透している。
これらの人間中心のテーブル(HCT)は、高いビジネス価値、複雑なレイアウト、大規模な運用能力の制限、時には重要な洞察のための唯一のデータソースとして機能する。
しかし、それらの複雑さは、従来のデータ抽出、処理、クエリ方法に重大な課題をもたらす。
現在のソリューションでは、これらのテーブルをSQLクエリのリレーショナルフォーマットに変換することに重点を置いているが、HCTの多様で複雑なレイアウトを扱うには不足しているため、クエリには適していない。
本稿では,HCTの広範なベンチマークであるHCT-QAについて述べる。
我々のデータセットには、実世界の2,188個のHCTと9,835個のQAペア、および4,679個の合成テーブルと67.5KのQAペアが含まれています。
本稿では,HCTを多種多様なクエリエンジンで処理することができるが,本論文では,潜在的エンジンとしてのLarge Language Modelsに着目し,それらのテーブルの処理とクエリの能力を評価する。
関連論文リスト
- MMTU: A Massive Multi-Task Table Understanding and Reasoning Benchmark [70.47478110973042]
MMTUは、25の現実世界のテーブルタスクに30万以上の質問がある大規模なベンチマークである。
MMTUは、専門家レベルで実際のテーブルを理解し、推論し、操作できるモデルを包括的に評価するように設計されている。
MMTUはテーブル理解、推論、コーディングといった、今日のフロンティアモデルにとって困難なスキルの組み合わせを必要としています。
論文 参考訳(メタデータ) (2025-06-05T21:05:03Z) - TabPedia: Towards Comprehensive Visual Table Understanding with Concept Synergy [81.76462101465354]
本稿では,概念相乗効果機構を備えた新しい大型視触覚モデルTabPediaを提案する。
この統合されたフレームワークにより、TabPediaはテーブル検出、テーブル構造認識、テーブルクエリ、テーブル質問応答などのVTUタスクをシームレスに統合できる。
実世界のシナリオにおけるVTUタスクをよりよく評価するために、新しい総合的なテーブルVQAベンチマークComTQAを構築した。
論文 参考訳(メタデータ) (2024-06-03T13:54:05Z) - KET-QA: A Dataset for Knowledge Enhanced Table Question Answering [63.56707527868466]
本研究では,TableQAの外部知識源として知識ベース(KB)を用いることを提案する。
すべての質問は、答えるテーブルとサブグラフの両方からの情報を統合する必要がある。
我々は,膨大な知識サブグラフから関連する情報を抽出するために,レトリバー・レゾナー構造パイプラインモデルを設計する。
論文 参考訳(メタデータ) (2024-05-13T18:26:32Z) - TANQ: An open domain dataset of table answered questions [15.323690523538572]
TANQは、複数のソースにまたがる情報からテーブルを構築する必要がある、最初のオープンドメイン質問応答データセットである。
結果の表にあるすべてのセルに対する完全なソース属性を公開し、オープン、オラクル、クローズドブックのセットアップで最先端の言語モデルをベンチマークします。
私たちの最高のパフォーマンスベースラインであるGemini Flashは、全体的なF1スコア60.7に達し、人間のパフォーマンスに12.3ポイント遅れています。
論文 参考訳(メタデータ) (2024-05-13T14:07:20Z) - Large Language Model for Table Processing: A Survey [18.32332372134988]
本調査では,テーブル関連タスクの概要について概観する。
テーブル質問応答やスプレッドシート操作やテーブルデータ分析といった新しいフィールドなど、従来のタスクをカバーしています。
論文 参考訳(メタデータ) (2024-02-04T00:47:53Z) - Auto-Tables: Synthesizing Multi-Step Transformations to Relationalize
Tables without Using Examples [24.208275772387683]
Auto-Tablesは、非リレーショナルテーブルをダウンストリーム分析のための標準リレーショナルフォームに自動的に変換する。
評価の結果,Auto-Tables はテストケースの70%以上をインタラクティブな速度で変換できることがわかった。
論文 参考訳(メタデータ) (2023-07-27T00:55:54Z) - MultiTabQA: Generating Tabular Answers for Multi-Table Question
Answering [61.48881995121938]
実世界のクエリは本質的に複雑で、リレーショナルデータベースやWebページ内の複数のテーブルにまたがることが多い。
我々のモデルであるMultiTabQAは、複数のテーブル上の質問に答えるだけでなく、表形式の回答を生成するために一般化する。
論文 参考訳(メタデータ) (2023-05-22T08:25:15Z) - Towards Complex Document Understanding By Discrete Reasoning [77.91722463958743]
VQA(Document Visual Question Answering)は、自然言語による質問に答えるために、視覚的に豊富なドキュメントを理解することを目的としている。
我々は3,067の文書ページと16,558の質問応答ペアからなる新しいドキュメントVQAデータセットTAT-DQAを紹介する。
我々は,テキスト,レイアウト,視覚画像など,多要素の情報を考慮に入れたMHSTという新しいモデルを開発し,異なるタイプの質問にインテリジェントに対処する。
論文 参考訳(メタデータ) (2022-07-25T01:43:19Z) - AIT-QA: Question Answering Dataset over Complex Tables in the Airline
Industry [30.330772077451048]
ドメイン固有のテーブルQAデータセットAIT-QA(Industry Table QA)を紹介する。
このデータセットは、米国証券取引委員会(SEC)の提出書類から抽出された116のテーブル上で、人間のアノテータによって書かれた515の質問から成り立っている。
また、階層的ヘッダー、ドメイン固有の用語、言い換え形を必要とするものをマークして、質問の性質に関するアノテーションも提供します。
論文 参考訳(メタデータ) (2021-06-24T12:14:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。