論文の概要: Beyond Linearization: Attributed Table Graphs for Table Reasoning
- arxiv url: http://arxiv.org/abs/2601.08444v1
- Date: Tue, 13 Jan 2026 11:14:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.165651
- Title: Beyond Linearization: Attributed Table Graphs for Table Reasoning
- Title(参考訳): 線形化を超えて - テーブル推論のための分散テーブルグラフ
- Authors: Yuxiang Wang, Junhao Gan, Shengxiang Gao, Shenghao Ye, Zhengyi Yang, Jianzhong Qi,
- Abstract要約: テーブルを分散表グラフ(ATG)として表す学習自由モデルを提案する。
TABGRは最新モデルの精度を最大9.7%向上させる。
- 参考スコア(独自算出の注目度): 29.473235136449134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Table reasoning, a task to answer questions by reasoning over data presented in tables, is an important topic due to the prevalence of knowledge stored in tabular formats. Recent solutions use Large Language Models (LLMs), exploiting the semantic understanding and reasoning capabilities of LLMs. A common paradigm of such solutions linearizes tables to form plain texts that are served as input to LLMs. This paradigm has critical issues. It loses table structures, lacks explicit reasoning paths for result explainability, and is subject to the "lost-in-the-middle" issue. To address these issues, we propose Table Graph Reasoner (TABGR), a training-free model that represents tables as an Attributed Table Graph (ATG). The ATG explicitly preserves row-column-cell structures while enabling graph-based reasoning for explainability. We further propose a Question-Guided Personalized PageRank (QG-PPR) mechanism to rerank tabular data and mitigate the lost-in-the-middle issue. Extensive experiments on two commonly used benchmarks show that TABGR consistently outperforms state-of-the-art models by up to 9.7% in accuracy. Our code will be made publicly available upon publication.
- Abstract(参考訳): テーブル推論(Table reasoning)は、表形式で提示されたデータについて推論することで質問に答えるタスクであり、表形式で格納された知識の頻度が高いため、重要なトピックである。
近年のソリューションでは,LLMの意味的理解と推論機能を活用したLarge Language Models (LLM) が採用されている。
そのようなソリューションの共通パラダイムは、テーブルを線形化し、LLMへの入力として機能するプレーンテキストを形成する。
このパラダイムには重大な問題がある。
テーブル構造を失い、結果の説明可能性のための明確な推論パスが欠如し、"中間の失われた"問題に直面する。
これらの問題に対処するために,テーブルを分散テーブルグラフ(ATG)として表すトレーニングフリーモデルであるTable Graph Reasoner (TABGR)を提案する。
ATGは、グラフに基づく説明可能性の推論を可能にしながら、行列セル構造を明示的に保存する。
さらに,質問ガイド付きパーソナライズドページランク(QG-PPR)機構を提案する。
2つの一般的なベンチマークによる大規模な実験により、TABGRは最新モデルの精度を最大9.7%向上させることができた。
私たちのコードは出版時に公開されます。
関連論文リスト
- RAG over Tables: Hierarchical Memory Index, Multi-Stage Retrieval, and Benchmarking [63.253294691180635]
現実世界のシナリオでは、純粋なテキスト以外では、かなりの量の知識がテーブルに格納される。
まず、階層型メモリインデックス、多段階検索、グラフ認識プロンプトからなるテーブルコーパス対応RAGフレームワークT-RAGを提案する。
論文 参考訳(メタデータ) (2025-04-02T04:24:41Z) - TableMaster: A Recipe to Advance Table Understanding with Language Models [2.506624215459612]
TableMasterはレシピと包括的なフレームワークで、これらの障害を克服するために複数のソリューションを統合する。
WikiTQデータセットでは、GPT-4o-miniを使用して78.13%の精度を達成し、既存のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-01-31T18:31:31Z) - TableRAG: Million-Token Table Understanding with Language Models [53.039560091592215]
TableRAG(TableRAG)は、LMベースのテーブル理解用に特別に設計された検索拡張生成(RAG)フレームワークである。
TableRAGは、スキーマとセル検索を組み合わせたクエリ拡張を活用して、LMにそれを提供する前に重要な情報をピンポイントする。
以上の結果から,TableRAGは検索精度が向上し,大規模テーブル理解における最先端性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-10-07T04:15:02Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。