論文の概要: Reasoning-Table: Exploring Reinforcement Learning for Table Reasoning
- arxiv url: http://arxiv.org/abs/2506.01710v1
- Date: Mon, 02 Jun 2025 14:18:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 04:22:50.762657
- Title: Reasoning-Table: Exploring Reinforcement Learning for Table Reasoning
- Title(参考訳): Reasoning-Table: テーブル推論のための強化学習の探索
- Authors: Fangyu Lei, Jinxiang Meng, Yiming Huang, Tinghong Chen, Yun Zhang, Shizhu He, Jun Zhao, Kang Liu,
- Abstract要約: Reasoning-Tableは、テーブル推論への強化学習(RL)の最初の応用であり、最先端の性能を実現している。
Reasoning-Tableは大きな言語モデルを推論する堅牢なテーブルとして登場し、Claude-3.7-Sonnetのようなより大きなプロプライエタリなモデルを4.0%上回っている。
- 参考スコア(独自算出の注目度): 24.624844234355734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Table reasoning, encompassing tasks such as table question answering, fact verification, and text-to-SQL, requires precise understanding of structured tabular data, coupled with numerical computation and code manipulation for effective inference. Supervised fine-tuning (SFT) approaches have achieved notable success but often struggle with generalization and robustness due to biases inherent in imitative learning. We introduce Reasoning-Table, the first application of reinforcement learning (RL) to table reasoning, achieving state-of-the-art performance. Through rigorous data preprocessing, reward design, and tailored training strategies, our method leverages simple rule-based outcome rewards to outperform SFT across multiple benchmarks. Unified training across diverse tasks enables Reasoning-Table to emerge as a robust table reasoning large language model, surpassing larger proprietary models like Claude-3.7-Sonnet by 4.0% on table reasoning benchmarks. The approach also achieves excellent performance on text-to-SQL tasks, reaching 68.3% performance on the BIRD dev dataset with a 7B model. Further experiments demonstrate that Reasoning-Table enhances the model's generalization capabilities and robustness.
- Abstract(参考訳): テーブルの推論は、テーブル質問応答、事実検証、テキスト・トゥ・SQLなどのタスクを包含し、構造化された表データの正確な理解と、効果的な推論のための数値計算とコード操作を必要とする。
Supervised Fine-tuning (SFT) アプローチは目覚ましい成功を収めてきたが、模倣学習に固有のバイアスのため、しばしば一般化と堅牢性に苦慮している。
本稿では,Regressed Learning (RL) のテーブル推論への応用であるReasoning-Tableを紹介する。
厳密なデータ前処理、報酬設計、調整されたトレーニング戦略を通じて、本手法は単純なルールベースの結果報酬を利用して、複数のベンチマークでSFTを上回ります。
多様なタスクにまたがる統一トレーニングにより、Reasoning-Tableは大きな言語モデルを推論する堅牢なテーブルとして登場し、テーブル推論ベンチマークにおいてClaude-3.7-Sonnetのようなより大規模なプロプライエタリなモデルを4.0%上回る。
このアプローチはまた、テキストからSQLまでのタスクで優れたパフォーマンスを実現し、7BモデルでBIRD開発データセットで68.3%のパフォーマンスを達成した。
さらに実験により、Reasoning-Tableはモデルの一般化能力とロバスト性を高めることが示されている。
関連論文リスト
- Table-R1: Region-based Reinforcement Learning for Table Understanding [34.213738690633896]
本稿では,テーブル理解を高める新しい強化学習手法であるTable-R1を提案する。
提案手法では,Rerea-Enhanced Supervised Fine-Tuning (RE-SFT) を用いて,関連するテーブル領域を識別するモデルをガイドする。
実験の結果、Table-R1は複数のベースモデルで平均14.36ポイントの性能向上を達成した。
論文 参考訳(メタデータ) (2025-05-18T13:40:18Z) - Towards Better Understanding Table Instruction Tuning: Decoupling the Effects from Data versus Models [62.47618742274461]
既存の公開トレーニングデータセットに基づいて、Mistral、OLMo、Phiファミリーからベースモデルを微調整します。
我々のレプリケーションは、既存のテーブルLLMと同等以上のパフォーマンスを実現しています。
トレーニングデータとベースモデルのコントリビューションを分離し、個々の影響に関する洞察を提供する。
論文 参考訳(メタデータ) (2025-01-24T18:50:26Z) - MAmmoTH-VL: Eliciting Multimodal Reasoning with Instruction Tuning at Scale [66.73529246309033]
MLLM(Multimodal large language model)は、多モーダルタスクにおいて大きな可能性を秘めている。
既存の命令チューニングデータセットは、中間的合理性のないフレーズレベルの答えのみを提供する。
そこで本研究では,大規模マルチモーダル・インストラクション・チューニング・データセットを構築するためのスケーラブルで費用対効果の高い手法を提案する。
論文 参考訳(メタデータ) (2024-12-06T18:14:24Z) - PoTable: Towards Systematic Thinking via Stage-oriented Plan-then-Execute Reasoning on Tables [13.823024099178172]
PoTableは、テーブル上でシステマティックな思考を実現する、ステージ指向のプラン・ザ・エグゼクティブ推論アプローチである。
PoTableは、高度に正確で、段階的にコメントされ、完全に実行可能なプログラムで、信頼性の高いテーブル推論結果を生成することができる。
論文 参考訳(メタデータ) (2024-12-05T15:54:16Z) - TableRAG: Million-Token Table Understanding with Language Models [53.039560091592215]
TableRAG(TableRAG)は、LMベースのテーブル理解用に特別に設計された検索拡張生成(RAG)フレームワークである。
TableRAGは、スキーマとセル検索を組み合わせたクエリ拡張を活用して、LMにそれを提供する前に重要な情報をピンポイントする。
以上の結果から,TableRAGは検索精度が向上し,大規模テーブル理解における最先端性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-10-07T04:15:02Z) - ALTER: Augmentation for Large-Table-Based Reasoning [5.164923314261229]
ALTER(Augmentation for Large-Table-Based Reasoning)は、NL (Free-form Natural Language) とNL (Augmentation for Large-Table-Based Reasoning) の双方の質問において、潜在的な拡張可能性を活用するために設計されたフレームワークである。
テーブルからの関連データの小さなサブセットのみを利用することで、ALTERはテーブルベースの推論ベンチマークで優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-07-03T12:34:45Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - UniTabE: A Universal Pretraining Protocol for Tabular Foundation Model
in Data Science [16.384705926693073]
本研究は,データサイエンスにおける表上での予測を容易にするために,事前学習方法論の能力を拡張することを目的とする。
テーブルを一様に処理するために設計されたUniTabEは、特定のテーブル構造によって課される制約を無視する。
プレトレーニングフェーズを実装するため,Kaggleプラットフォームから正確に収集した約13Bサンプルからなる拡張データセットをキュレートした。
論文 参考訳(メタデータ) (2023-07-18T13:28:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。