論文の概要: TabSD: Large Free-Form Table Question Answering with SQL-Based Table Decomposition
- arxiv url: http://arxiv.org/abs/2502.13422v1
- Date: Wed, 19 Feb 2025 04:45:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 14:01:14.649020
- Title: TabSD: Large Free-Form Table Question Answering with SQL-Based Table Decomposition
- Title(参考訳): TabSD: SQLベースのテーブル分解による大規模フリーフォームテーブル質問回答
- Authors: Yuxiang Wang, Junhao Gan, Jianzhong Qi,
- Abstract要約: 自由形式のテーブル (TableQA) に対する質問応答は、事前定義されたスキーマがなく、大きなテーブルにノイズが存在するため困難である。
本研究では,大規模言語モデルによる大規模自由形式テーブルの処理能力を向上させるasqlに基づく分解モデルであるTabSDを提案する。
本稿では,大きな自由形式テーブルを持つ2つのテーブルQAデータセット,SLQAとSEQAを紹介する。
- 参考スコア(独自算出の注目度): 29.384514074911955
- License:
- Abstract: Question answering on free-form tables (TableQA) is challenging due to the absence of predefined schemas and the presence of noise in large tables. While Large Language Models (LLMs) have shown promise in TableQA, they struggle with large free-form tables and noise sensitivity. To address these challenges, we propose TabSD, a SQL-based decomposition model that enhances LLMs' ability to process large free-form tables. TabSD generates SQL queries to guide the table decomposition, remove noise, and processes sub-tables for better answer generation. Additionally, SQL Verifier refines SQL outputs to enhance decomposition accuracy. We introduce two TableQA datasets with large free-form tables, SLQA and SEQA, which consist solely of large free-form tables and will be publicly available. Experimental results on four benchmark datasets demonstrate that TABSD outperforms the best-existing baseline models by 23.07%, 2.84%, 23.24% and 9.32% in accuracy, respectively, highlighting its effectiveness in handling large and noisy free-form tables.
- Abstract(参考訳): 自由形式テーブル (TableQA) に対する質問応答は、事前定義されたスキーマがなく、大きなテーブルにノイズが存在するため困難である。
LLM(Large Language Models)はTableQAにおいて有望であることを示しているが、大きな自由形式テーブルとノイズ感度に悩まされている。
これらの課題に対処するために,LLMの大規模自由形式テーブル処理能力を高めるSQLベースの分解モデルであるTabSDを提案する。
TabSDはSQLクエリを生成してテーブルの分解をガイドし、ノイズを取り除き、回答生成を改善するためにサブテーブルを処理する。
さらに、SQL VerifierはSQLの出力を洗練し、分解精度を高める。
本稿では,大きな自由形式テーブルを持つ2つのテーブルQAデータセット,SLQAとSEQAを紹介する。
4つのベンチマークデータセットの実験結果は、TABSDが既存のベースラインモデルを23.07%、2.84%、2.24%、23.24%、9.32%の精度で上回っており、大きなフリーフォームテーブルとノイズの多いフリーフォームテーブルの扱いの有効性を強調している。
関連論文リスト
- SynTQA: Synergistic Table-based Question Answering via Mixture of Text-to-SQL and E2E TQA [25.09488366689108]
テキスト・ツー・パースとエンドツーエンド質問応答(E2E TQA)は、表に基づく質問回答タスクの2つの主要なアプローチである。
複数のベンチマークで成功したが、まだ比較されておらず、相乗効果は未解明のままである。
ベンチマークデータセットの最先端モデルを評価することによって、さまざまな長所と短所を識別する。
論文 参考訳(メタデータ) (2024-09-25T07:18:45Z) - KET-QA: A Dataset for Knowledge Enhanced Table Question Answering [63.56707527868466]
本研究では,TableQAの外部知識源として知識ベース(KB)を用いることを提案する。
すべての質問は、答えるテーブルとサブグラフの両方からの情報を統合する必要がある。
我々は,膨大な知識サブグラフから関連する情報を抽出するために,レトリバー・レゾナー構造パイプラインモデルを設計する。
論文 参考訳(メタデータ) (2024-05-13T18:26:32Z) - TabSQLify: Enhancing Reasoning Capabilities of LLMs Through Table Decomposition [6.253771639590562]
テーブル推論は、自然言語の質問と構造化データの両方を理解する必要がある難しいタスクである。
テキスト・ツー・ジェネレーションを利用したテーブルを,より小さく,関連するサブテーブルに分解する新しい方法であるTabifyを提案する。
WikiTQベンチマークでは,64.7%の精度で精度が向上した。
論文 参考訳(メタデータ) (2024-04-15T21:42:20Z) - Is Table Retrieval a Solved Problem? Exploring Join-Aware Multi-Table Retrieval [52.592071689901196]
本稿では,テーブル検索において,任意のクエリやデータベースに対して有用な結合関係を明らかにする手法を提案する。
提案手法は,F1スコアの最大9.3%,エンドツーエンドQAの最大5.4%の精度で,テーブル検索の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-04-15T15:55:01Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - MultiTabQA: Generating Tabular Answers for Multi-Table Question
Answering [61.48881995121938]
実世界のクエリは本質的に複雑で、リレーショナルデータベースやWebページ内の複数のテーブルにまたがることが多い。
我々のモデルであるMultiTabQAは、複数のテーブル上の質問に答えるだけでなく、表形式の回答を生成するために一般化する。
論文 参考訳(メタデータ) (2023-05-22T08:25:15Z) - OmniTab: Pretraining with Natural and Synthetic Data for Few-shot
Table-based Question Answering [106.73213656603453]
最小限のアノテーションによるテーブルベースのQAモデルを構築した。
本稿では、自然データと合成データの両方を消費する全能事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-08T01:23:45Z) - Table Retrieval May Not Necessitate Table-specific Model Design [83.27735758203089]
テーブル検索のタスクに焦点をあてて、"テーブル固有のモデル設計はテーブル検索に必要か?
自然質問データセット (NQ-table) の表に基づく分析の結果, 70%以上の症例では構造が無視できる役割を担っていることがわかった。
次に、テーブル構造、すなわち補助列/カラム埋め込み、ハードアテンションマスク、ソフトリレーションに基づくアテンションバイアスを明示的にエンコードする3つのモジュールを実験する。
いずれも大きな改善は得られず、テーブル固有のモデル設計がテーブル検索に不要である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:35:23Z) - TableFormer: Robust Transformer Modeling for Table-Text Encoding [18.00127368618485]
テーブル理解のための既存のモデルはテーブル構造の線形化を必要とし、行や列の順序は不要なバイアスとしてエンコードされる。
本研究では,テーブルテキストエンコーディングアーキテクチャであるTableFormerを提案する。
論文 参考訳(メタデータ) (2022-03-01T07:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。