論文の概要: Fortune: Formula-Driven Reinforcement Learning for Symbolic Table Reasoning in Language Models
- arxiv url: http://arxiv.org/abs/2505.23667v2
- Date: Sat, 31 May 2025 07:32:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-03 13:48:30.070771
- Title: Fortune: Formula-Driven Reinforcement Learning for Symbolic Table Reasoning in Language Models
- Title(参考訳): Fortune: 言語モデルにおける記号表推論のためのフォーミュラ駆動強化学習
- Authors: Lang Cao, Jingxian Xu, Hanbing Liu, Jinyu Wang, Mengyu Zhou, Haoyu Dong, Shi Han, Dongmei Zhang,
- Abstract要約: 本稿では,LMを訓練して実行可能なスプレッドシート式を生成する強化学習フレームワークであるフォーミュラチューニングを提案する。
フォーミュラ・タニングは、二項応答の正しさを報奨信号として利用することにより、教師付き公式アノテーションへの依存を減らす。
これは、特に多段階の数値およびシンボリック推論タスクにおいて、LM性能を大幅に向上させる。
- 参考スコア(独自算出の注目度): 44.340292033316715
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tables are a fundamental structure for organizing and analyzing data, making effective table understanding a critical capability for intelligent systems. While large language models (LMs) demonstrate strong general reasoning abilities, they continue to struggle with accurate numerical or symbolic reasoning over tabular data, especially in complex scenarios. Spreadsheet formulas provide a powerful and expressive medium for representing executable symbolic operations, encoding rich reasoning patterns that remain largely underutilized. In this paper, we propose Formula Tuning (Fortune), a reinforcement learning (RL) framework that trains LMs to generate executable spreadsheet formulas for question answering over general tabular data. Formula Tuning reduces the reliance on supervised formula annotations by using binary answer correctness as a reward signal, guiding the model to learn formula derivation through reasoning. We provide a theoretical analysis of its advantages and demonstrate its effectiveness through extensive experiments on seven table reasoning benchmarks. Formula Tuning substantially enhances LM performance, particularly on multi-step numerical and symbolic reasoning tasks, enabling a 7B model to outperform OpenAI o1 on table understanding. This highlights the potential of formula-driven RL to advance symbolic table reasoning in LMs.
- Abstract(参考訳): テーブルはデータを整理し分析するための基本的な構造であり、インテリジェントシステムにとって重要な能力である効果的なテーブル理解を可能にする。
大規模言語モデル(LM)は、強力な一般的な推論能力を示すが、特に複雑なシナリオにおいて、グラフデータに対する正確な数値的または記号的推論に苦しむ。
スプレッドシートの公式は、実行可能シンボリック操作を表現するための強力で表現力のある媒体を提供し、ほとんど使われていない豊富な推論パターンを符号化する。
本稿では,拡張学習(RL)フレームワークであるフォーミュラ・チューニング(Fortune)を提案する。
フォーミュラ・タニングは、二項回答の正しさを報奨信号として用い、推論を通じて公式の導出を学習するモデルを導くことにより、教師付き公式アノテーションへの依存を減らす。
我々は,その利点を理論的に分析し,その効果を7つのテーブル推論ベンチマークで広範な実験によって実証する。
フォーミュラチューニングは、特に多段階の数値およびシンボリック推論タスクにおいて、LM性能を大幅に向上させ、7Bモデルはテーブル理解においてOpenAI o1より優れている。
このことは、式駆動RLがLMにおける記号表推論を前進させる可能性を強調している。
関連論文リスト
- TabReason: A Reinforcement Learning-Enhanced Reasoning LLM for Explainable Tabular Data Prediction [19.350413252699042]
大規模言語モデル(LLM)は、人間のような推論や説明を生成する強力な能力を示している。
本稿では,より正確で説明可能な予測を行うために,強化学習を用いて学習した推論に基づくLLMを活用する新しい手法を提案する。
提案手法では,予測精度の向上だけでなく,予測に対する人間の理解可能な理由をモデルに導くカスタム報酬関数を導入している。
論文 参考訳(メタデータ) (2025-05-27T22:23:11Z) - TableRAG: Million-Token Table Understanding with Language Models [53.039560091592215]
TableRAG(TableRAG)は、LMベースのテーブル理解用に特別に設計された検索拡張生成(RAG)フレームワークである。
TableRAGは、スキーマとセル検索を組み合わせたクエリ拡張を活用して、LMにそれを提供する前に重要な情報をピンポイントする。
以上の結果から,TableRAGは検索精度が向上し,大規模テーブル理解における最先端性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-10-07T04:15:02Z) - H-STAR: LLM-driven Hybrid SQL-Text Adaptive Reasoning on Tables [56.73919743039263]
本稿では,2段階のプロセスにシンボル的アプローチと意味的アプローチ(テキスト的アプローチ)を統合し,制約に対処する新しいアルゴリズムを提案する。
実験の結果,H-STARは3つの質問応答(QA)と事実検証データセットにおいて,最先端の手法を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-29T21:24:19Z) - NormTab: Improving Symbolic Reasoning in LLMs Through Tabular Data Normalization [6.253771639590562]
我々は,Webテーブルの正規化によるLarge Language Models(LLMs)のシンボリック推論性能の向上を目的としたフレームワークであるNormTabを紹介した。
表データのシンボリック推論を支援するために, LLMを用いてテーブル正規化を1回1回1回前処理ステップとして検討する。
WikiTableQuestion や TabFact などの Web テーブルデータセットを用いた実験により,NormTab の活用がシンボル推論性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-25T22:40:03Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - ReasTAP: Injecting Table Reasoning Skills During Pre-training via
Synthetic Reasoning Examples [15.212332890570869]
複雑なテーブル固有のアーキテクチャ設計を必要とせずに、事前学習中に高レベルのテーブル推論スキルをモデルに注入できることを示すためにReasTAPを開発した。
ReasTAPはすべてのベンチマークで最新のパフォーマンスを実現し、低リソース設定で大幅に改善されている。
論文 参考訳(メタデータ) (2022-10-22T07:04:02Z) - FORTAP: Using Formulae for Numerical-Reasoning-Aware Table Pretraining [23.747119682226675]
FORTAPは, スプレッドシート公式の大規模コーパスを活用することで, 事前学習を行うための最初の方法である。
FORTAPは、セルタイプ分類と公式予測という、2つの典型的な下流タスクで結果を得る。
論文 参考訳(メタデータ) (2021-09-15T14:31:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。