論文の概要: ST-Raptor: LLM-Powered Semi-Structured Table Question Answering
- arxiv url: http://arxiv.org/abs/2508.18190v3
- Date: Tue, 02 Sep 2025 02:30:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-03 14:24:52.692474
- Title: ST-Raptor: LLM-Powered Semi-Structured Table Question Answering
- Title(参考訳): ST-Raptor: LLMを利用した半構造化テーブル質問応答
- Authors: Zirui Tang, Boyu Niu, Xuanhe Zhou, Boxiu Li, Wei Zhou, Jiannan Wang, Guoliang Li, Xinyi Zhang, Fan Wu,
- Abstract要約: 現実世界のアプリケーションで広く使われている半構造化テーブルは、フレキシブルで複雑なレイアウトを含むことが多い。
これらのテーブルは、テーブルレイアウトを解釈し、関連する自然言語の質問に答えるために、人間アナリストに依存している。
大規模言語モデルを用いた半構造化テーブル質問応答のための木ベースのフレームワークST-Raptorを提案する。
- 参考スコア(独自算出の注目度): 17.807768747239205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semi-structured tables, widely used in real-world applications (e.g., financial reports, medical records, transactional orders), often involve flexible and complex layouts (e.g., hierarchical headers and merged cells). These tables generally rely on human analysts to interpret table layouts and answer relevant natural language questions, which is costly and inefficient. To automate the procedure, existing methods face significant challenges. First, methods like NL2SQL require converting semi-structured tables into structured ones, which often causes substantial information loss. Second, methods like NL2Code and multi-modal LLM QA struggle to understand the complex layouts of semi-structured tables and cannot accurately answer corresponding questions. To this end, we propose ST-Raptor, a tree-based framework for semi-structured table question answering using large language models. First, we introduce the Hierarchical Orthogonal Tree (HO-Tree), a structural model that captures complex semi-structured table layouts, along with an effective algorithm for constructing the tree. Second, we define a set of basic tree operations to guide LLMs in executing common QA tasks. Given a user question, ST-Raptor decomposes it into simpler sub-questions, generates corresponding tree operation pipelines, and conducts operation-table alignment for accurate pipeline execution. Third, we incorporate a two-stage verification mechanism: forward validation checks the correctness of execution steps, while backward validation evaluates answer reliability by reconstructing queries from predicted answers. To benchmark the performance, we present SSTQA, a dataset of 764 questions over 102 real-world semi-structured tables. Experiments show that ST-Raptor outperforms nine baselines by up to 20% in answer accuracy. The code is available at https://github.com/weAIDB/ST-Raptor.
- Abstract(参考訳): 半構造化テーブルは、現実世界のアプリケーション(財務報告、医療記録、トランザクションの順序など)で広く使われているが、フレキシブルで複雑なレイアウト(階層的ヘッダやマージセルなど)を伴っていることが多い。
これらの表は一般に人間アナリストに頼ってテーブルのレイアウトを解釈し、関連する自然言語の質問に答えるが、これは費用がかかり非効率である。
手順を自動化するために、既存の手法は重大な課題に直面している。
まず、NL2SQLのような手法では、半構造化テーブルを構造化テーブルに変換する必要がある。
第二に、NL2CodeやマルチモーダルLLM QAのような手法は、半構造化テーブルの複雑なレイアウトを理解するのに苦労し、対応する質問に正確に答えることができない。
そこで本研究では,大規模言語モデルを用いた半構造化テーブル質問応答のための木ベースのフレームワークST-Raptorを提案する。
まず、複雑な半構造化テーブルレイアウトをキャプチャする構造モデルである階層直交木(HO-Tree)と、木を構築するための効率的なアルゴリズムを紹介する。
第2に、共通QAタスクの実行において、LCMをガイドする基本的なツリー操作のセットを定義する。
ユーザが質問すると、ST-Raptorはそれを単純なサブクエストに分解し、対応するツリー操作パイプラインを生成し、正確なパイプライン実行のために操作テーブルアライメントを実行する。
第3に、前方検証は実行手順の正しさをチェックする一方、後方検証は予測された回答からクエリを再構成することで回答信頼性を評価する。
実世界102の半構造化テーブル上での764質問のデータセットであるSSTQAを提案する。
実験の結果,ST-Raptorの解答精度は最大20%向上した。
コードはhttps://github.com/weAIDB/ST-Raptor.comで入手できる。
関連論文リスト
- Weaver: Interweaving SQL and LLM for Table Reasoning [63.09519234853953]
Weaverは、構造化データ検索のためのsqlとセマンティック処理のためのLLMを組み合わせたフレキシブルなステップバイステッププランを生成する。
Weaverは、4つのTableQAデータセットの最先端メソッドを一貫して上回り、API呼び出しとエラー率の両方を削減する。
論文 参考訳(メタデータ) (2025-05-25T03:27:37Z) - AutoPrep: Natural Language Question-Aware Data Preparation with a Multi-Agent Framework [22.72266037804117]
Tabular Question Answering (TQA)では、構造化データから意味のある洞察を迅速かつ効率的に抽出することができる。
多くのテーブルはWebソースや実世界のシナリオから派生しており、正確な応答を保証するには精巧なデータ準備(あるいはデータ準備)が必要である。
この質問ウェアデータ作成には、列導出や特定の質問に適したフィルタリングといった特定のタスクが含まれる。
本稿では,マルチエージェントの強みを利用した大規模言語モデル(LLM)に基づくマルチエージェントフレームワークであるAutoPrepを提案する。
論文 参考訳(メタデータ) (2024-12-10T11:03:49Z) - Tree-of-Table: Unleashing the Power of LLMs for Enhanced Large-Scale Table Understanding [42.841205217768106]
トレー・オブ・タブル(Tree-of-Table)は、LLMが大規模で複雑なテーブル上での推論能力を高めるために設計された新しいアプローチである。
Tree-of-Tableは優れた性能を持つ新しいベンチマークをセットし、大規模テーブル推論における顕著な効率性と一般化能力を示す。
論文 参考訳(メタデータ) (2024-11-13T11:02:04Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - MultiTabQA: Generating Tabular Answers for Multi-Table Question
Answering [61.48881995121938]
実世界のクエリは本質的に複雑で、リレーショナルデータベースやWebページ内の複数のテーブルにまたがることが多い。
我々のモデルであるMultiTabQAは、複数のテーブル上の質問に答えるだけでなく、表形式の回答を生成するために一般化する。
論文 参考訳(メタデータ) (2023-05-22T08:25:15Z) - Optimization Techniques for Unsupervised Complex Table Reasoning via Self-Training Framework [5.351873055148804]
自己学習フレームワークは複雑な論理を持つ多様な合成データを生成する。
我々は「テーブル・テキスト・マニピュレータ(Table-Text Manipulator)」を用いて、共同テーブル・テキスト推論シナリオの処理を最適化する。
UCTRSTは、異なるタスクやドメインにおける教師付きモデルパフォーマンスの90%以上を達成する。
論文 参考訳(メタデータ) (2022-12-20T09:15:03Z) - ReasTAP: Injecting Table Reasoning Skills During Pre-training via
Synthetic Reasoning Examples [15.212332890570869]
複雑なテーブル固有のアーキテクチャ設計を必要とせずに、事前学習中に高レベルのテーブル推論スキルをモデルに注入できることを示すためにReasTAPを開発した。
ReasTAPはすべてのベンチマークで最新のパフォーマンスを実現し、低リソース設定で大幅に改善されている。
論文 参考訳(メタデータ) (2022-10-22T07:04:02Z) - OmniTab: Pretraining with Natural and Synthetic Data for Few-shot
Table-based Question Answering [106.73213656603453]
最小限のアノテーションによるテーブルベースのQAモデルを構築した。
本稿では、自然データと合成データの両方を消費する全能事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-08T01:23:45Z) - Table Retrieval May Not Necessitate Table-specific Model Design [83.27735758203089]
テーブル検索のタスクに焦点をあてて、"テーブル固有のモデル設計はテーブル検索に必要か?
自然質問データセット (NQ-table) の表に基づく分析の結果, 70%以上の症例では構造が無視できる役割を担っていることがわかった。
次に、テーブル構造、すなわち補助列/カラム埋め込み、ハードアテンションマスク、ソフトリレーションに基づくアテンションバイアスを明示的にエンコードする3つのモジュールを実験する。
いずれも大きな改善は得られず、テーブル固有のモデル設計がテーブル検索に不要である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:35:23Z) - Retrieving Complex Tables with Multi-Granular Graph Representation
Learning [20.72341939868327]
自然言語テーブル検索の課題は,自然言語クエリに基づいて意味的に関連するテーブルを検索することである。
既存の学習システムは、テーブルがデータフレームとして構成されているという仮定に基づいて、テーブルをプレーンテキストとして扱う。
多粒グラフ表現学習を用いた一般化可能なNLTRフレームワークであるグラフベーステーブル検索(GTR)を提案する。
論文 参考訳(メタデータ) (2021-05-04T20:19:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。