論文の概要: General Table Question Answering via Answer-Formula Joint Generation
- arxiv url: http://arxiv.org/abs/2503.12345v1
- Date: Sun, 16 Mar 2025 03:51:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:36:07.489945
- Title: General Table Question Answering via Answer-Formula Joint Generation
- Title(参考訳): Answer-Formulaジョイントジェネレーションによる一般質問応答
- Authors: Zhongyuan Wang, Richong Zhang, Zhijie Nie,
- Abstract要約: テーブル質問応答(TableQA)メソッドは、大きな言語モデル(LLM)に応答テキストを生成する。
これらの方法には、特定の質問タイプやテーブル構造を扱うための汎用性がない。
複数種類のテーブル上で複数のタスクを同時に解決する汎用テーブル応答フレームワークである textttTabAF を提案する。
- 参考スコア(独自算出の注目度): 27.599437384914186
- License:
- Abstract: Advanced table question answering (TableQA) methods prompt large language models (LLMs) to generate answer text, SQL query, Python code, or custom operations, which impressively improve the complex reasoning problems in the TableQA task. However, these methods lack the versatility to cope with specific question types or table structures. In contrast, the Spreadsheet Formula, the widely-used and well-defined operation language for tabular data, has not been thoroughly explored to solve TableQA. In this paper, we first attempt to use Formula as the logical form for solving complex reasoning on the tables with different structures. Specifically, we construct a large Formula-annotated TableQA dataset \texttt{FromulaQA} from existing datasets. In addition, we propose \texttt{TabAF}, a general table answering framework to solve multiple types of tasks over multiple types of tables simultaneously. Unlike existing methods, \texttt{TabAF} decodes answers and Formulas with a single LLM backbone, demonstrating great versatility and generalization. \texttt{TabAF} based on Llama3.1-70B achieves new state-of-the-art performance on the WikiTableQuestion, HiTab and TabFact.
- Abstract(参考訳): テーブル質問応答(TableQA)メソッドは、大きな言語モデル(LLM)に応答テキスト、SQLクエリ、Pythonコード、カスタム操作を生成するよう促す。
しかし、これらの手法には、特定の質問タイプやテーブル構造を扱うための汎用性がない。
対照的に、表データのための広く使われよく定義された操作言語であるスプレッドシート・フォーミュラは、TableQAを解決するために徹底的に研究されていない。
本稿では,異なる構造を持つテーブル上での複雑な推論を解くための論理形式としてフォーミュラを最初に試みる。
具体的には、既存のデータセットから大容量のフォーミュラアノテーション付きTableQAデータセットを構築できる。
さらに,複数のテーブル上の複数のタスクを同時に解決する汎用テーブル応答フレームワークである「texttt{TabAF}」を提案する。
既存の方法とは異なり、texttt{TabAF} は答えとフォーミュラを単一のLCMバックボーンでデコードし、非常に汎用性と一般化を示す。
Llama3.1-70B をベースにした \texttt{TabAF} は WikiTableQuestion, HiTab, TabFact で最先端のパフォーマンスを実現する。
関連論文リスト
- Piece of Table: A Divide-and-Conquer Approach for Selecting Subtables in Table Question Answering [20.926770550682964]
PieTa - サブテーブルベースの質問応答(QA)のための新しいフレームワーク
テーブルを小さなウィンドウに分割する反復的なプロセスを通じて動作し、LMを使用して各ウィンドウ内で関連する細胞を選択し、これらの細胞をサブテーブルにマージする。
従来のサブテーブルベースのQAアプローチよりもパフォーマンスが向上している。
論文 参考訳(メタデータ) (2024-12-10T16:08:14Z) - Is Table Retrieval a Solved Problem? Exploring Join-Aware Multi-Table Retrieval [52.592071689901196]
本稿では,テーブル検索において,任意のクエリやデータベースに対して有用な結合関係を明らかにする手法を提案する。
提案手法は,F1スコアの最大9.3%,エンドツーエンドQAの最大5.4%の精度で,テーブル検索の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-04-15T15:55:01Z) - Augment before You Try: Knowledge-Enhanced Table Question Answering via
Table Expansion [57.53174887650989]
テーブル質問応答は、構造化されたデータを理解し、相互作用するモデルの能力を評価する一般的なタスクである。
既存の方法は表と外部の知識の両方をテキストに変換し、表の構造的な性質を無視する。
そこで本稿では,表に外部情報を統合するための簡易で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-01-28T03:37:11Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - TableQAKit: A Comprehensive and Practical Toolkit for Table-based
Question Answering [23.412691101965414]
TableQAKitは、TableQA専用に設計された最初の総合ツールキットである。
TableQAKitは、ビジュアル操作を含むインタラクティブなインターフェースと、使いやすい包括的なデータを備えたオープンソースである。
論文 参考訳(メタデータ) (2023-10-23T16:33:23Z) - MultiTabQA: Generating Tabular Answers for Multi-Table Question
Answering [61.48881995121938]
実世界のクエリは本質的に複雑で、リレーショナルデータベースやWebページ内の複数のテーブルにまたがることが多い。
我々のモデルであるMultiTabQAは、複数のテーブル上の質問に答えるだけでなく、表形式の回答を生成するために一般化する。
論文 参考訳(メタデータ) (2023-05-22T08:25:15Z) - OmniTab: Pretraining with Natural and Synthetic Data for Few-shot
Table-based Question Answering [106.73213656603453]
最小限のアノテーションによるテーブルベースのQAモデルを構築した。
本稿では、自然データと合成データの両方を消費する全能事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-08T01:23:45Z) - Table Retrieval May Not Necessitate Table-specific Model Design [83.27735758203089]
テーブル検索のタスクに焦点をあてて、"テーブル固有のモデル設計はテーブル検索に必要か?
自然質問データセット (NQ-table) の表に基づく分析の結果, 70%以上の症例では構造が無視できる役割を担っていることがわかった。
次に、テーブル構造、すなわち補助列/カラム埋め込み、ハードアテンションマスク、ソフトリレーションに基づくアテンションバイアスを明示的にエンコードする3つのモジュールを実験する。
いずれも大きな改善は得られず、テーブル固有のモデル設計がテーブル検索に不要である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:35:23Z) - FeTaQA: Free-form Table Question Answering [33.018256483762386]
FeTaQAは10Kのウィキペディアベースのテーブル、質問、自由形式の回答、テーブルセルペアをサポートする新しいデータセットである。
FeTaQAは、構造化された知識ソースから複数の不連続な事実の検索、推論、および統合後に自由形式のテキスト回答を生成する必要があるため、より困難なテーブル質問回答設定を提供する。
論文 参考訳(メタデータ) (2021-04-01T09:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。