論文の概要: CORE-T: COherent REtrieval of Tables for Text-to-SQL
- arxiv url: http://arxiv.org/abs/2601.13111v1
- Date: Mon, 19 Jan 2026 14:51:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.93674
- Title: CORE-T: COherent REtrieval of Tables for Text-to-SQL
- Title(参考訳): CORE-T: テキストからSQLへのテーブルのコヒーレント検索
- Authors: Hassan Soliman, Vivek Gupta, Dan Roth, Iryna Gurevych,
- Abstract要約: CORE-Tはスケーラブルでトレーニング不要なフレームワークで、テーブルに目的のメタデータを付加し、軽量なテーブル互換キャッシュをプリコンプリートする。
バード、スパイダー、MMQAを越えて、CORE-Tはテーブル選択F1を最大22.7ポイント改善し、最大42%のテーブルを検索する。
- 参考スコア(独自算出の注目度): 91.76918495375384
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Realistic text-to-SQL workflows often require joining multiple tables. As a result, accurately retrieving the relevant set of tables becomes a key bottleneck for end-to-end performance. We study an open-book setting where queries must be answered over large, heterogeneous table collections pooled from many sources, without clean scoping signals such as database identifiers. Here, dense retrieval (DR) achieves high recall but returns many distractors, while join-aware alternatives often rely on extra assumptions and/or incur high inference overhead. We propose CORE-T, a scalable, training-free framework that enriches tables with LLM-generated purpose metadata and pre-computes a lightweight table-compatibility cache. At inference time, DR returns top-K candidates; a single LLM call selects a coherent, joinable subset, and a simple additive adjustment step restores strongly compatible tables. Across Bird, Spider, and MMQA, CORE-T improves table-selection F1 by up to 22.7 points while retrieving up to 42% fewer tables, improving multi-table execution accuracy by up to 5.0 points on Bird and 6.9 points on MMQA, and using 4-5x fewer tokens than LLM-intensive baselines.
- Abstract(参考訳): 現実的なテキスト-SQLワークフローは、しばしば複数のテーブルを結合する必要がある。
結果として、関係するテーブルの集合を正確に取り出すことは、エンドツーエンドのパフォーマンスにとって重要なボトルネックとなる。
データベース識別子などのクリーンなスクーピング信号なしで、多数のソースからプールされた大規模で異種なテーブルコレクション上でクエリを応答しなければならないオープンブック環境について検討する。
ここでは、高密度検索(DR)は高いリコールを達成するが、多くのインタプリタを返す。
LLM生成した目的のメタデータでテーブルを充実させ,軽量なテーブル互換キャッシュをプリコンプリートする,スケーラブルでトレーニング不要なフレームワークであるCORE-Tを提案する。
DRはトップK候補を返却し、単一のLCMコールがコヒーレントで結合可能なサブセットを選択し、単純な加算調整ステップが強く互換性のあるテーブルを復元する。
バード、スパイダー、MMQA全体では、CORE-Tはテーブル選択F1を最大22.7ポイント改善し、テーブルを最大42%削減し、Birdでは最大5.0ポイント、MMQAでは最大6.9ポイント、LCM集約ベースラインより4-5倍少ないトークンを使用する。
関連論文リスト
- A Hybrid Search for Complex Table Question Answering in Securities Report [0.9430947207126281]
手動による識別を伴わないTQA(Table Question Answering)のためのセル抽出法を提案する。
提案手法は,与えられた質問と個々のセルの類似性を計算し,テーブルヘッダーを推定する。
次に、最も関連する行と列の交点にあるセルの答えとして選択する。
論文 参考訳(メタデータ) (2025-11-12T10:19:27Z) - REaR: Retrieve, Expand and Refine for Effective Multitable Retrieval [46.38349148493421]
REAR(Retrieve, Expand and Refine)は、効率的な高忠実なマルチテーブル検索のための3段階のフレームワークである。
Rearはクエリ整列テーブルを検索し、構造的に結合可能なテーブルで拡張し、ノイズや弱い関係のある候補を抽出することでそれらを洗練する。
Rearはレトリバー非依存であり、複雑なテーブルQAデータセット上の高密度/スパースレトリバーを一貫して改善する。
論文 参考訳(メタデータ) (2025-11-02T05:01:04Z) - Improving Table Retrieval with Question Generation from Partial Tables [2.2169618382995764]
本稿では,LLMを用いてテーブルの小さな部分に基づいて合成質問を生成する簡易かつ効果的な方法であるQGpTを提案する。
生成された質問は、生成に使用される部分テーブルセグメントに結合され、ユーザクエリとのセマンティックアライメントが強化される。
論文 参考訳(メタデータ) (2025-08-08T09:35:56Z) - RAG over Tables: Hierarchical Memory Index, Multi-Stage Retrieval, and Benchmarking [63.253294691180635]
現実世界のシナリオでは、純粋なテキスト以外では、かなりの量の知識がテーブルに格納される。
まず、階層型メモリインデックス、多段階検索、グラフ認識プロンプトからなるテーブルコーパス対応RAGフレームワークT-RAGを提案する。
論文 参考訳(メタデータ) (2025-04-02T04:24:41Z) - TabSQLify: Enhancing Reasoning Capabilities of LLMs Through Table Decomposition [6.253771639590562]
テーブル推論は、自然言語の質問と構造化データの両方を理解する必要がある難しいタスクである。
テキスト・ツー・ジェネレーションを利用したテーブルを,より小さく,関連するサブテーブルに分解する新しい方法であるTabifyを提案する。
WikiTQベンチマークでは,64.7%の精度で精度が向上した。
論文 参考訳(メタデータ) (2024-04-15T21:42:20Z) - Is Table Retrieval a Solved Problem? Exploring Join-Aware Multi-Table Retrieval [52.592071689901196]
本稿では,テーブル検索において,任意のクエリやデータベースに対して有用な結合関係を明らかにする手法を提案する。
提案手法は,F1スコアの最大9.3%,エンドツーエンドQAの最大5.4%の精度で,テーブル検索の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-04-15T15:55:01Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。