論文の概要: FACTS: Table Summarization via Offline Template Generation with Agentic Workflows
- arxiv url: http://arxiv.org/abs/2510.13920v1
- Date: Wed, 15 Oct 2025 10:24:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.543091
- Title: FACTS: Table Summarization via Offline Template Generation with Agentic Workflows
- Title(参考訳): FACTS: エージェントワークフローによるオフラインテンプレート生成によるテーブル要約
- Authors: Ye Yuan, Mohammad Amin Shabani, Siqi Liu,
- Abstract要約: FACTSはオフラインのテンプレートを生成し、自然言語の要約にレンダリングでき、複数のテーブルで再利用できる。
これにより、再利用可能なオフラインテンプレートによる高速な要約、実行可能sqlクエリによる正確な出力、テーブルスキーマのみをLLMに送信することでプライバシコンプライアンスが可能になる。
- 参考スコア(独自算出の注目度): 11.885086835801523
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Query-focused table summarization requires generating natural language summaries of tabular data conditioned on a user query, enabling users to access insights beyond fact retrieval. Existing approaches face key limitations: table-to-text models require costly fine-tuning and struggle with complex reasoning, prompt-based LLM methods suffer from token-limit and efficiency issues while exposing sensitive data, and prior agentic pipelines often rely on decomposition, planning, or manual templates that lack robustness and scalability. To mitigate these issues, we introduce an agentic workflow, FACTS, a Fast, Accurate, and Privacy-Compliant Table Summarization approach via Offline Template Generation. FACTS produces offline templates, consisting of SQL queries and Jinja2 templates, which can be rendered into natural language summaries and are reusable across multiple tables sharing the same schema. It enables fast summarization through reusable offline templates, accurate outputs with executable SQL queries, and privacy compliance by sending only table schemas to LLMs. Evaluations on widely-used benchmarks show that FACTS consistently outperforms baseline methods, establishing it as a practical solution for real-world query-focused table summarization.
- Abstract(参考訳): クエリ中心のテーブル要約では、ユーザクエリに条件付された表データの自然言語要約を生成する必要があり、ユーザは事実検索以外の洞察にアクセスできるようになる。
テーブルからテキストへのモデルには、コストのかかる微調整が必要で、複雑な推論に苦労する、プロンプトベースのLCMメソッドは、機密データを露出しながらトークン制限と効率の問題に悩まされる、以前のエージェントパイプラインは、堅牢性とスケーラビリティに欠ける分解、計画、手動テンプレートに依存することが多い。
これらの問題を緩和するために、オフラインテンプレート生成を介してエージェントワークフロー、FACTS、高速、高精度、およびプライバシ互換性のあるテーブル要約アプローチを導入する。
FACTSは、SQLクエリとJinja2テンプレートで構成されるオフラインテンプレートを生成する。
これにより、再利用可能なオフラインテンプレートによる高速な要約、実行可能なSQLクエリによる正確な出力、テーブルスキーマのみをLLMに送信することでプライバシコンプライアンスが可能になる。
広く使われているベンチマークでは、FACTSはベースライン法を一貫して上回り、実際のクエリ中心のテーブル要約の実用的なソリューションとして確立されている。
関連論文リスト
- Improving Table Understanding with LLMs and Entity-Oriented Search [24.3302301035859]
大規模言語モデル(LLM)を用いたテーブル理解向上のためのエンティティ指向検索手法を提案する。
このアプローチは、質問とテーブルデータ間の意味的類似性、およびテーブルセル間の暗黙的な関係を効果的に活用する。
テーブルエンティティにフォーカスし、テーブルセルがセマンティックにタイトに束縛されていることを保証する。
論文 参考訳(メタデータ) (2025-08-23T14:02:45Z) - LLM-Symbolic Integration for Robust Temporal Tabular Reasoning [69.27153114778748]
本研究では,システムおよび制御された評価のための合成データセットであるTempTabQA-Cを紹介する。
この構造化アプローチにより、LLM(Large Language Models)はsqlクエリの生成と実行を可能にし、一般化とバイアス軽減の強化を行う。
論文 参考訳(メタデータ) (2025-06-06T05:14:04Z) - Weaver: Interweaving SQL and LLM for Table Reasoning [62.55797244714265]
Weaverは、構造化データ検索のためのsqlとセマンティック処理のためのLLMを組み合わせたフレキシブルなステップバイステッププランを生成する。
Weaverは、4つのTableQAデータセットで、最先端のメソッドを一貫して上回る。
論文 参考訳(メタデータ) (2025-05-25T03:27:37Z) - SchemaGraphSQL: Efficient Schema Linking with Pathfinding Graph Algorithms for Text-to-SQL on Large-Scale Databases [1.6544167074080365]
本稿では、まず、外部キー関係に基づくスキーマグラフを構築する、ゼロショットでトレーニング不要なスキーマリンク手法を提案する。
我々は、結合すべきテーブルや列の最適なシーケンスを特定するために、古典的なパスフィニングアルゴリズムと後処理を適用する。
提案手法はBIRDベンチマークの最先端結果を実現し,従来の特殊化,微調整,複雑な多段階LCMに基づくアプローチよりも優れていた。
論文 参考訳(メタデータ) (2025-05-23T20:42:36Z) - TACT: Advancing Complex Aggregative Reasoning with Information Extraction Tools [51.576974932743596]
大規模言語モデル(LLM)は、テキスト間の情報の集約を必要とするクエリではよく機能しないことが多い。
TACTには、1つ以上のテキストに散らばる縫合情報を要求する難しい命令が含まれている。
既存のテキストと関連するテーブルのデータセットを活用することで、このデータセットを構築します。
現代のLLMはいずれも,このデータセットでは性能が悪く,精度が38%以下であることが実証された。
論文 参考訳(メタデータ) (2024-06-05T20:32:56Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。