論文の概要: TraceBack: Multi-Agent Decomposition for Fine-Grained Table Attribution
- arxiv url: http://arxiv.org/abs/2602.13059v1
- Date: Fri, 13 Feb 2026 16:13:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:54.02645
- Title: TraceBack: Multi-Agent Decomposition for Fine-Grained Table Attribution
- Title(参考訳): TraceBack: 細粒度テーブル属性のマルチエージェント分解
- Authors: Tejas Anvekar, Junha Park, Rajat Jha, Devanshu Gupta, Poojah Ganesan, Puneeth Mathur, Vivek Gupta,
- Abstract要約: TraceBackは、シングルテーブルのQAにおけるスケーラブルでセルレベルの属性のためのフレームワークである。
ToTTo、FetaQA、AITQAから引き出されたフレーズ間アノテーションを備えたベンチマークであるCITEBenchをリリースする。
また、予測された細胞と答えから得られた原子事実を比較し、ヒトの細胞ラベルを使わずに属性の精度とリコールを推定する参照レス計量であるFairScoreを提案する。
- 参考スコア(独自算出の注目度): 11.133753556671392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Question answering (QA) over structured tables requires not only accurate answers but also transparency about which cells support them. Existing table QA systems rarely provide fine-grained attribution, so even correct answers often lack verifiable grounding, limiting trust in high-stakes settings. We address this with TraceBack, a modular multi-agent framework for scalable, cell-level attribution in single-table QA. TraceBack prunes tables to relevant rows and columns, decomposes questions into semantically coherent sub-questions, and aligns each answer span with its supporting cells, capturing both explicit and implicit evidence used in intermediate reasoning steps. To enable systematic evaluation, we release CITEBench, a benchmark with phrase-to-cell annotations drawn from ToTTo, FetaQA, and AITQA. We further propose FairScore, a reference-less metric that compares atomic facts derived from predicted cells and answers to estimate attribution precision and recall without human cell labels. Experiments show that TraceBack substantially outperforms strong baselines across datasets and granularities, while FairScore closely tracks human judgments and preserves relative method rankings, supporting interpretable and scalable evaluation of table-based QA.
- Abstract(参考訳): 構造化テーブル上での質問応答(QA)は、正確な回答だけでなく、どの細胞がそれらをサポートするかの透明性も必要である。
既存のテーブルQAシステムでは微妙な帰属はめったにないため、正しい答えであっても検証可能な根拠がなく、高い評価設定の信頼性が制限される。
シングルテーブルQAにおけるスケーラブルなセルレベルの属性に対するモジュール型マルチエージェントフレームワークであるTraceBackでこの問題に対処する。
TraceBackはテーブルを関連する行や列に割り当て、質問をセマンティックに一貫性のあるサブクエストに分解し、各回答をそのサポートセルに並べて、中間的推論ステップで使用される明示的な証拠と暗黙的な証拠の両方をキャプチャする。
システム評価を実現するため,ToTTo,FetaQA,AITQAから抽出したフレーズ・ツー・セルアノテーションを用いたベンチマークであるCITEBenchをリリースする。
さらに、予測された細胞と答えから得られた原子事実を比較し、ヒトの細胞ラベルを使わずに属性の精度とリコールを推定する参照レス計量であるFairScoreを提案する。
実験によると、TraceBackはデータセットや粒度をまたいだ強力なベースラインを大幅に上回り、FairScoreは人間の判断をしっかりと追跡し、相対的なメソッドランキングを保持し、テーブルベースのQAの解釈可能でスケーラブルな評価をサポートする。
関連論文リスト
- SQuARE: Structured Query & Adaptive Retrieval Engine For Tabular Formats [0.0]
SQuAREはシートレベルの複雑なルーティングを備えたハイブリッド検索フレームワークである。
ヘッダの深さとマージ密度に基づいて連続的なスコアを計算する。
SQuAREは、検索精度とエンドツーエンドの回答精度の両方において、シングルストラテジーベースラインとChatGPT-4oを一貫して上回る。
論文 参考訳(メタデータ) (2025-12-03T22:11:45Z) - Hierarchical Sequence Iteration for Heterogeneous Question Answering [27.22775290181187]
本稿では,文書,表,知識グラフを可逆的階層列に線形化する統一フレームワークであるHSEQを紹介する。
HotpotQA(テキスト)、HybridQA/TAT-QA(テーブル+テキスト)、MetaQA(KG)の実験では、強いシングルパス、マルチホップ、エージェントRAGベースラインを高い効率で一貫したEM/F1が得られた。
論文 参考訳(メタデータ) (2025-10-23T12:48:18Z) - RAG over Tables: Hierarchical Memory Index, Multi-Stage Retrieval, and Benchmarking [63.253294691180635]
現実世界のシナリオでは、純粋なテキスト以外では、かなりの量の知識がテーブルに格納される。
まず、階層型メモリインデックス、多段階検索、グラフ認識プロンプトからなるテーブルコーパス対応RAGフレームワークT-RAGを提案する。
論文 参考訳(メタデータ) (2025-04-02T04:24:41Z) - KET-QA: A Dataset for Knowledge Enhanced Table Question Answering [63.56707527868466]
本研究では,TableQAの外部知識源として知識ベース(KB)を用いることを提案する。
すべての質問は、答えるテーブルとサブグラフの両方からの情報を統合する必要がある。
我々は,膨大な知識サブグラフから関連する情報を抽出するために,レトリバー・レゾナー構造パイプラインモデルを設計する。
論文 参考訳(メタデータ) (2024-05-13T18:26:32Z) - SQUARE: Automatic Question Answering Evaluation using Multiple Positive
and Negative References [73.67707138779245]
SQuArE (Sentence-level QUestion AnsweRing Evaluation) という新しい評価指標を提案する。
文レベルの抽出(回答選択)と生成(GenQA)の両方のQAシステムでSQuArEを評価する。
論文 参考訳(メタデータ) (2023-09-21T16:51:30Z) - Localize, Retrieve and Fuse: A Generalized Framework for Free-Form
Question Answering over Tables [46.039687237878105]
TableQAは、提供されたテーブルに座った質問に対する回答を生成することを目的としている。
テーブルからグラフへの変換,セルローカライズ,外部知識検索,テーブルとテキストの融合を提案する。
実験は、忠実で一貫性のある文を生成するためのTAG-QAの優れた能力を示す。
論文 参考訳(メタデータ) (2023-09-20T03:52:34Z) - TACR: A Table-alignment-based Cell-selection and Reasoning Model for
Hybrid Question-Answering [31.79113994947629]
テキストとテーブルQAのハイブリッド化を目的としたテーブルアライメントに基づくセル選択・推論モデル(TACR)を提案する。
証拠検索において,我々は詳細な証拠を検索するテーブルクエストアライメント強化セル選択法を設計する。
回答推論では、選択されたセルを含む行をコンテキストとして扱うQAモジュールを組み込む。
論文 参考訳(メタデータ) (2023-05-24T03:42:44Z) - Robust Question Answering Through Sub-part Alignment [53.94003466761305]
我々はアライメント問題として質問応答をモデル化する。
私たちは、SQuAD v1.1でモデルをトレーニングし、いくつかの逆および外ドメインデータセットでそれをテストします。
論文 参考訳(メタデータ) (2020-04-30T09:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。