論文の概要: What to Keep and What to Drop: Adaptive Table Filtering Framework
- arxiv url: http://arxiv.org/abs/2506.23463v1
- Date: Mon, 30 Jun 2025 02:03:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.888248
- Title: What to Keep and What to Drop: Adaptive Table Filtering Framework
- Title(参考訳): 何を維持するか、何を落とすか:Adaptive Table Filtering Framework
- Authors: Jang Won June,
- Abstract要約: ATFは、列記述、クラスタリング、スパースセンスアライメントスコアを使用して、非形式的な列と行をプルーする。
実験によると、ATFはテーブルセルを70%削減し、ドメイン外のTableQAタスクのパフォーマンスを向上する。
結果は、タスク間で情報性と最小主義を適応的にバランスさせるATFの能力を強調している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) for table-based reasoning often struggle with large tables due to input length limits. We propose ATF (Adaptive Table Filtering Framework), a modular and question-aware filtering pipeline that prunes uninformative columns and rows using LLM-generated column descriptions, clustering, and sparse-dense alignment scores. ATF integrates seamlessly with existing models (e.g., TAPAS, TAPEX) without retraining. Experiments show that ATF reduces table cells by ~70\%, boosting performance on out-of-domain TableQA tasks while causing slight performance drops on Table Fact Verification, where full-table context is more critical. These results highlight ATF's ability to adaptively balance informativeness and minimalism across tasks.
- Abstract(参考訳): テーブルベースの推論のための大規模言語モデル(LLM)は、入力長制限のため、しばしば大きなテーブルと競合する。
我々は,LLM生成カラム記述,クラスタリング,スパース・ディッセンスアライメントスコアを用いて,不定形カラムと行を具現化するモジュール型かつ問合せ対応のフィルタリングパイプラインであるATF(Adaptive Table Filtering Framework)を提案する。
ATFは、リトレーニングなしで既存のモデル(例えば、TAAAS、TAPEX)とシームレスに統合する。
実験の結果、ATFはテーブルセルを約70%削減し、ドメイン外のTableQAタスクのパフォーマンスを向上する一方で、フルテーブルコンテキストがより重要となるテーブルファクト検証の性能低下を引き起こすことがわかった。
これらの結果は、タスク間で情報量と最小主義を適応的にバランスさせるATFの能力を強調している。
関連論文リスト
- Weaver: Interweaving SQL and LLM for Table Reasoning [63.09519234853953]
Weaverは、構造化データ検索のためのsqlとセマンティック処理のためのLLMを組み合わせたフレキシブルなステップバイステッププランを生成する。
Weaverは、4つのTableQAデータセットの最先端メソッドを一貫して上回り、API呼び出しとエラー率の両方を削減する。
論文 参考訳(メタデータ) (2025-05-25T03:27:37Z) - Piece of Table: A Divide-and-Conquer Approach for Selecting Subtables in Table Question Answering [20.926770550682964]
PieTa - サブテーブルベースの質問応答(QA)のための新しいフレームワーク
テーブルを小さなウィンドウに分割する反復的なプロセスを通じて動作し、LMを使用して各ウィンドウ内で関連する細胞を選択し、これらの細胞をサブテーブルにマージする。
従来のサブテーブルベースのQAアプローチよりもパフォーマンスが向上している。
論文 参考訳(メタデータ) (2024-12-10T16:08:14Z) - CABINET: Content Relevance based Noise Reduction for Table Question
Answering [21.899938933558396]
CABINET(Content RelevAnce-Based NoIse ReductioN for TablE QuesTion-Answering)は、大規模言語モデル(LLM)が外部情報を抑制することで関連するデータに集中できるようにするフレームワークである。
ノイズを導出し、様々なサイズのテーブル上でパフォーマンスを維持し、WikiTQ、FeTaQA、Wikiデータセット上で新しいSoTAパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-02-02T05:48:39Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - MultiTabQA: Generating Tabular Answers for Multi-Table Question
Answering [61.48881995121938]
実世界のクエリは本質的に複雑で、リレーショナルデータベースやWebページ内の複数のテーブルにまたがることが多い。
我々のモデルであるMultiTabQAは、複数のテーブル上の質問に答えるだけでなく、表形式の回答を生成するために一般化する。
論文 参考訳(メタデータ) (2023-05-22T08:25:15Z) - OmniTab: Pretraining with Natural and Synthetic Data for Few-shot
Table-based Question Answering [106.73213656603453]
最小限のアノテーションによるテーブルベースのQAモデルを構築した。
本稿では、自然データと合成データの両方を消費する全能事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-08T01:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。