論文の概要: FGTR: Fine-Grained Multi-Table Retrieval via Hierarchical LLM Reasoning
- arxiv url: http://arxiv.org/abs/2603.12702v1
- Date: Fri, 13 Mar 2026 06:28:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.943407
- Title: FGTR: Fine-Grained Multi-Table Retrieval via Hierarchical LLM Reasoning
- Title(参考訳): FGTR:階層型LLM推論による細粒多目的検索
- Authors: Chaojie Sun, Bin Cao, Tiantian Li, Chenyu Hou, Ruizhe Li, Qing Fan,
- Abstract要約: The Fine-Grained Multi-Table Retrieval FGTR is a new search paradigm that using a human-like reasoning strategy。
実験の結果,FGTRは従来の最先端手法よりも優れていた。
- 参考スコア(独自算出の注目度): 9.827204445321147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid advancement of large language models (LLMs), growing efforts have been made on LLM-based table retrieval. However, existing studies typically focus on single-table query, and implement it by similarity matching after encoding the entire table. These methods usually result in low accuracy due to their coarse-grained encoding which incorporates much query-irrelated data, and are also inefficient when dealing with large tables, failing to fully utilize the reasoning capabilities of LLM. Further, multi-table query is under-explored in retrieval tasks. To this end, we propose a hierarchical multi-table query method based on LLM: Fine-Grained Multi-Table Retrieval FGTR, a new retrieval paradigm that employs a human-like reasoning strategy. Through hierarchical reasoning, FGTR first identifies relevant schema elements and then retrieves the corresponding cell contents, ultimately constructing a concise and accurate sub-table that aligns with the given query. To comprehensively evaluate the performance of FGTR, we construct two new benchmark datasets based on Spider and BIRD . Experimental results show that FGTR outperforms previous state-of-the-art methods, improving the F_2 metric by 18% on Spider and 21% on BIRD, demonstrating its effectiveness in enhancing fine-grained retrieval and its potential to improve end-to-end performance on table-based downstream tasks.
- Abstract(参考訳): 大規模言語モデル (LLM) の急速な進歩により, LLM を用いたテーブル検索への取り組みが活発化している。
しかし、既存の研究はシングルテーブルクエリに重点を置いており、テーブル全体をエンコードした後、類似性マッチングによって実装している。
これらの手法は、多くのクエリ非関連データを組み込んだ粗いエンコーディングにより、通常、低い精度で処理され、大きなテーブルを扱う際にも非効率であり、LLMの推論能力を十分に活用できない。
さらに、マルチテーブルクエリは検索タスクでは未探索である。
そこで本研究では,LLMに基づく階層型マルチテーブルクエリ手法であるFGTRを提案する。
階層的推論を通じて、FGTRはまず関連するスキーマ要素を特定し、次に対応するセルコンテンツを取得し、最終的に与えられたクエリと整合した簡潔で正確なサブテーブルを構築する。
FGTRの性能を総合的に評価するために、スパイダーとBIRDに基づく2つの新しいベンチマークデータセットを構築した。
実験の結果、FGTRは従来の最先端手法よりも優れており、スパイダーの18%、BIRDの21%のF_2測定精度が向上し、細粒度検索の精度が向上し、テーブルベースのダウンストリームタスクにおけるエンドツーエンドのパフォーマンスが向上する可能性が示された。
関連論文リスト
- CGPT: Cluster-Guided Partial Tables with LLM-Generated Supervision for Table Retrieval [1.483000637348699]
本稿では,LCM生成によるテーブル検索を支援するトレーニングフレームワークCGPTを紹介する。
CGPTは、QGpTを含む検索ベースラインを一貫して上回り、平均R@1の改善率は16.54パーセントである。
以上の結果から,LLM生成管理によるコントラストトレーニングと組み合わせた意味的ガイド付き部分テーブル構築が,大規模テーブル検索に有効かつスケーラブルなパラダイムを提供することが示された。
論文 参考訳(メタデータ) (2026-01-22T10:58:56Z) - A Hybrid Search for Complex Table Question Answering in Securities Report [0.9430947207126281]
手動による識別を伴わないTQA(Table Question Answering)のためのセル抽出法を提案する。
提案手法は,与えられた質問と個々のセルの類似性を計算し,テーブルヘッダーを推定する。
次に、最も関連する行と列の交点にあるセルの答えとして選択する。
論文 参考訳(メタデータ) (2025-11-12T10:19:27Z) - REaR: Retrieve, Expand and Refine for Effective Multitable Retrieval [46.38349148493421]
REAR(Retrieve, Expand and Refine)は、効率的な高忠実なマルチテーブル検索のための3段階のフレームワークである。
Rearはクエリ整列テーブルを検索し、構造的に結合可能なテーブルで拡張し、ノイズや弱い関係のある候補を抽出することでそれらを洗練する。
Rearはレトリバー非依存であり、複雑なテーブルQAデータセット上の高密度/スパースレトリバーを一貫して改善する。
論文 参考訳(メタデータ) (2025-11-02T05:01:04Z) - Reasoning-enhanced Query Understanding through Decomposition and Interpretation [87.56450566014625]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - RAG over Tables: Hierarchical Memory Index, Multi-Stage Retrieval, and Benchmarking [63.253294691180635]
現実世界のシナリオでは、純粋なテキスト以外では、かなりの量の知識がテーブルに格納される。
まず、階層型メモリインデックス、多段階検索、グラフ認識プロンプトからなるテーブルコーパス対応RAGフレームワークT-RAGを提案する。
論文 参考訳(メタデータ) (2025-04-02T04:24:41Z) - TableRAG: Million-Token Table Understanding with Language Models [53.039560091592215]
TableRAG(TableRAG)は、LMベースのテーブル理解用に特別に設計された検索拡張生成(RAG)フレームワークである。
TableRAGは、スキーマとセル検索を組み合わせたクエリ拡張を活用して、LMにそれを提供する前に重要な情報をピンポイントする。
以上の結果から,TableRAGは検索精度が向上し,大規模テーブル理解における最先端性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-10-07T04:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。