論文の概要: Utilizing Training Data to Improve LLM Reasoning for Tabular Understanding
- arxiv url: http://arxiv.org/abs/2508.18676v1
- Date: Tue, 26 Aug 2025 04:46:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.684017
- Title: Utilizing Training Data to Improve LLM Reasoning for Tabular Understanding
- Title(参考訳): 言語理解のためのLLM推論改善のためのトレーニングデータの利用
- Authors: Chufan Gao, Jintai Chen, Jimeng Sun,
- Abstract要約: 本稿では,新しいプロンプトベースの推論手法であるLearn then Retrieve: LRTabを提案する。
まず、トレーニングデータ上でCoT応答を得るためにプロンプトを使用します。
誤り CoT に対して,データからの洞察を学習し,誤りを避けるため,LLM に Prompt Conditions の予測を指示する。
最後に、推論時に、テーブル理解のための追加コンテキストのために最も関連性の高いPrompt条件を検索する。
- 参考スコア(独自算出の注目度): 28.832331050993464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated tabular understanding and reasoning are essential tasks for data scientists. Recently, Large language models (LLMs) have become increasingly prevalent in tabular reasoning tasks. Previous work focuses on (1) finetuning LLMs using labeled data or (2) Training-free prompting LLM agents using chain-of-thought (CoT). Finetuning offers dataset-specific learning at the cost of generalizability. Training-free prompting is highly generalizable but does not take full advantage of training data. In this paper, we propose a novel prompting-based reasoning approach, Learn then Retrieve: LRTab, which integrates the benefits of both by retrieving relevant information learned from training data. We first use prompting to obtain CoT responses over the training data. For incorrect CoTs, we prompt the LLM to predict Prompt Conditions to avoid the error, learning insights from the data. We validate the effectiveness of Prompt Conditions using validation data. Finally, at inference time, we retrieve the most relevant Prompt Conditions for additional context for table understanding. We provide comprehensive experiments on WikiTQ and Tabfact, showing that LRTab is interpretable, cost-efficient, and can outperform previous baselines in tabular reasoning.
- Abstract(参考訳): 自動表理解と推論は、データサイエンティストにとって必須のタスクである。
近年,大規模言語モデル (LLMs) は表型推論タスクにおいてますます普及している。
従来の研究は,(1)ラベル付きデータを用いたLCMの微調整,(2)チェーン・オブ・シント(CoT)を用いたトレーニングフリーなLSMエージェントの開発に重点を置いていた。
ファインタニングは、一般化可能性の犠牲でデータセット固有の学習を提供する。
トレーニングフリーのプロンプトは非常に一般化できるが、トレーニングデータを完全に活用することはできない。
本稿では,学習データから学習した関連情報を取得することによって,両者のメリットを統合する,新たなプロンプトベースの推論手法であるLearn then Retrieve: LRTabを提案する。
まず、トレーニングデータ上でCoT応答を得るためにプロンプトを使用します。
誤り CoT に対して,データからの洞察を学習し,誤りを避けるため,LLM に Prompt Conditions の予測を指示する。
検証データを用いて,プロンプト条件の有効性を検証する。
最後に、推論時に、テーブル理解のための追加コンテキストのために最も関連性の高いPrompt条件を検索する。
我々はWikiTQとTabfactの総合的な実験を行い、LRTabは解釈可能でコスト効率が良く、表の推論において従来のベースラインよりも優れていることを示した。
関連論文リスト
- Can Prompts Rewind Time for LLMs? Evaluating the Effectiveness of Prompted Knowledge Cutoffs [31.64130018833542]
大規模言語モデル(LLM)は時間的予測に広く用いられているが、事前学習データへの依存は汚染の懸念を引き起こす。
LLMにおける初期の知識遮断をシミュレートする能力について検討する。
以上の結果から, 即時的知識カットオフは, その日以降の情報を直接クエリした場合の有効性を示すが, 忘れた内容が直接問い合わせられるのではなく, 慎重にクエリに関連付けられている場合, 忘れることの誘発に苦慮していることが示された。
論文 参考訳(メタデータ) (2025-09-26T20:37:44Z) - Logical Reasoning with Outcome Reward Models for Test-Time Scaling [10.795521518273214]
帰納的推論のためのORM(Outcome Reward Models)のセットを提示する。
ORMのトレーニングには、主にChain-of-Thought(CoT)を使って、単一のサンプルと複数のサンプルを使ってデータを生成します。
また、ORMのトレーニングデータセットでカバーされるエラーの種類をさらに拡大するための新しい戦術を提案する。
論文 参考訳(メタデータ) (2025-08-27T14:08:43Z) - Aligning Instruction Tuning with Pre-training [61.50161961371844]
そこで我々は,AITP(Aligning Instruction Tuning with Pre-training)を提案する。
8つのベンチマークで3つの完全にオープンな大規模言語モデル(LLM)上で,AITPによる一貫したパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2025-01-16T08:27:40Z) - Tabular Transfer Learning via Prompting LLMs [52.96022335067357]
大規模言語モデル(LLM)を用いたラベル付き(あるいは異種)ソースデータを利用した新しいフレームワークPrompt to Transfer (P2T)を提案する。
P2Tは、ターゲットタスク機能と強く相関しているソースデータセットの列の特徴を特定し、ターゲットタスクに関連する例を作成し、プロンプトの擬似宣言を生成する。
論文 参考訳(メタデータ) (2024-08-09T11:30:52Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Elephants Never Forget: Memorization and Learning of Tabular Data in Large Language Models [21.10890310571397]
大規模言語モデル (LLM) は様々なタスクに適用できるが、データ汚染と記憶の重大な問題はしばしば誇張される。
この研究は、トレーニング中に言語モデルがデータセットを見たかどうかを評価するためのさまざまなテクニックを導入している。
次に、トレーニング中に見られたデータセット上でのLLMの数発の学習性能と、トレーニング後にリリースされたデータセットのパフォーマンスを比較した。
論文 参考訳(メタデータ) (2024-04-09T10:58:21Z) - Unleashing the Potential of Large Language Models for Predictive Tabular Tasks in Data Science [17.282770819829913]
この研究は、これらの予測タスクにLarge Language Models (LLM)を適用する試みである。
本研究の目的は,Llama-2 の大規模学習を行う上で,注釈付きテーブルの包括的コーパスをコンパイルすることで,このギャップを緩和することにある。
論文 参考訳(メタデータ) (2024-03-29T14:41:21Z) - TableLLM: Enabling Tabular Data Manipulation by LLMs in Real Office Usage Scenarios [51.66718740300016]
TableLLMは80億のパラメータを持つ堅牢な大規模言語モデル(LLM)である。
TableLLMはデータ操作タスクを巧みに扱うために構築されている。
我々は、ユーザインタラクションのためのモデルチェックポイント、ソースコード、ベンチマーク、Webアプリケーションをリリースした。
論文 参考訳(メタデータ) (2024-03-28T11:21:12Z) - Chain-of-Table: Evolving Tables in the Reasoning Chain for Table
Understanding [79.9461269253121]
そこで我々は、中間思考のプロキシとして、図表データを推論チェーンで明示的に使用するChain-of-Tableフレームワークを提案する。
Chain-of-TableはWikiTQ、FeTaQA、TabFactベンチマークで最新のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-01-09T07:46:26Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - TABLET: Learning From Instructions For Tabular Data [46.62140500101618]
TABLETは、20の多様なデータセットのベンチマークで、その説明、粒度、技術的に異なる命令をアノテートする。
テキスト内命令はFlan-T5 11bのゼロショットF1性能を平均44%向上し,TABLETのChatGPTは13%向上した。
論文 参考訳(メタデータ) (2023-04-25T23:07:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。