論文の概要: ProTrix: Building Models for Planning and Reasoning over Tables with Sentence Context
- arxiv url: http://arxiv.org/abs/2403.02177v2
- Date: Mon, 1 Jul 2024 11:31:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-02 14:49:11.317096
- Title: ProTrix: Building Models for Planning and Reasoning over Tables with Sentence Context
- Title(参考訳): ProTrix: 文コンテキストを持つテーブル上での計画と推論のためのモデルの構築
- Authors: Zirui Wu, Yansong Feng,
- Abstract要約: 本稿では,テーブル上のクエリに文コンテキストで応答するPlan-then-Reasonフレームワークを提案する。
フレームワークはまず、コンテキスト上の推論パスを計画し、次に各ステップをプログラムベースまたはテキスト推論に割り当てて最終回答に到達する。
このフレームワークは、コンテキスト内学習と微調整の両方におけるテーブル推論能力を向上させる。
- 参考スコア(独自算出の注目度): 30.32247966762623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tables play a crucial role in conveying information in various domains. We propose a Plan-then-Reason framework to answer different types of user queries over tables with sentence context. The framework first plans the reasoning paths over the context, then assigns each step to program-based or textual reasoning to reach the final answer. This framework enhances the table reasoning abilities for both in-context learning and fine-tuning methods. GPT-3.5-Turbo following Plan-then-Reason framework surpasses other prompting baselines without self-consistency while using less API calls and in-context demonstrations. We also construct an instruction tuning set TrixInstruct to evaluate the effectiveness of fine-tuning with this framework. We present ProTrix model family by finetuning models on TrixInstruct. Our experiments show that ProTrix family generalizes to diverse unseen tabular tasks with only 6k training instances. We further demonstrate that ProTrix can generate accurate and faithful explanations to answer complex free-form questions. Our work underscores the importance of the planning and reasoning abilities towards a model over tabular tasks with generalizability and interpretability. We open-source our dataset and models at https://github.com/WilliamZR/ProTrix.
- Abstract(参考訳): 表は、諸藩の情報伝達において重要な役割を担っている。
文コンテキストを持つテーブル上で異なるタイプのユーザクエリに応答するPlan-then-Reasonフレームワークを提案する。
フレームワークはまず、コンテキスト上の推論パスを計画し、次に各ステップをプログラムベースまたはテキスト推論に割り当てて最終回答に到達する。
このフレームワークは、コンテキスト内学習と微調整の両方におけるテーブル推論能力を向上させる。
Plan-then-Reasonフレームワークに従うGPT-3.5-Turboは、API呼び出しの削減とコンテキスト内デモを使用して、自己整合性のない他のプロンプトベースラインを上回っている。
また、このフレームワークによる微調整の有効性を評価するために、TrixInstructという命令チューニングセットを構築した。
本稿では、TrixInstruct上での微調整モデルにより、ProTrixモデルファミリを示す。
実験の結果, ProTrix ファミリーは6k のトレーニングインスタンスしか持たない多種多様な表型タスクに一般化できることがわかった。
さらに、複雑な自由形式の質問に答えるために、ProTrixが正確で忠実な説明を生成することを実証する。
我々の研究は、一般化可能性と解釈可能性を備えた表型タスクよりも、モデルに対する計画と推論能力の重要性を浮き彫りにしている。
私たちはデータセットとモデルをhttps://github.com/WilliamZR/ProTrix.comでオープンソース化しています。
関連論文リスト
- Chain-of-Table: Evolving Tables in the Reasoning Chain for Table
Understanding [79.9461269253121]
そこで我々は、中間思考のプロキシとして、図表データを推論チェーンで明示的に使用するChain-of-Tableフレームワークを提案する。
Chain-of-TableはWikiTQ、FeTaQA、TabFactベンチマークで最新のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-01-09T07:46:26Z) - Guiding Language Model Reasoning with Planning Tokens [122.43639723387516]
大規模言語モデル(LLM)は、最近、複雑な推論タスクを実行する能力に対して、かなりの関心を集めている。
より構造的なチェーン・オブ・シークレット・ステップの創出を促す階層的な生成手法を提案する。
提案手法では、トレーニング可能なパラメータ(0.001%)の無視可能な増加が必要であり、完全な微調整か、よりパラメータ効率の良いスキームで適用することができる。
論文 参考訳(メタデータ) (2023-10-09T13:29:37Z) - MultiTabQA: Generating Tabular Answers for Multi-Table Question
Answering [61.48881995121938]
実世界のクエリは本質的に複雑で、リレーショナルデータベースやWebページ内の複数のテーブルにまたがることが多い。
我々のモデルであるMultiTabQAは、複数のテーブル上の質問に答えるだけでなく、表形式の回答を生成するために一般化する。
論文 参考訳(メタデータ) (2023-05-22T08:25:15Z) - Realistic Data Augmentation Framework for Enhancing Tabular Reasoning [15.339526664699845]
半構造化テーブル推論のような自然言語推論タスクのためのトレーニングデータを構築するための既存のアプローチは、クラウドソーシングまたは完全に自動化された方法である。
本稿では,表型推論のためのデータ拡張のための現実的な半自動フレームワークを開発する。
論文 参考訳(メタデータ) (2022-10-23T17:32:19Z) - ReasTAP: Injecting Table Reasoning Skills During Pre-training via
Synthetic Reasoning Examples [15.212332890570869]
複雑なテーブル固有のアーキテクチャ設計を必要とせずに、事前学習中に高レベルのテーブル推論スキルをモデルに注入できることを示すためにReasTAPを開発した。
ReasTAPはすべてのベンチマークで最新のパフォーマンスを実現し、低リソース設定で大幅に改善されている。
論文 参考訳(メタデータ) (2022-10-22T07:04:02Z) - Dynamic Prompt Learning via Policy Gradient for Semi-structured
Mathematical Reasoning [150.17907456113537]
数学的な推論を必要とする38,431のグレードレベルの問題を含む新しいデータセットであるTabular Math Word Problems (TabMWP)を提案する。
我々は,GPT-3モデルを含む,TabMWP上での事前学習モデルの評価を行った。
本稿では、ポリシー勾配を利用して、少量のトレーニングデータからコンテキスト内サンプルを選択する新しいアプローチ、PromptPGを提案する。
論文 参考訳(メタデータ) (2022-09-29T08:01:04Z) - OmniTab: Pretraining with Natural and Synthetic Data for Few-shot
Table-based Question Answering [106.73213656603453]
最小限のアノテーションによるテーブルベースのQAモデルを構築した。
本稿では、自然データと合成データの両方を消費する全能事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-08T01:23:45Z) - Proton: Probing Schema Linking Information from Pre-trained Language
Models for Text-to-SQL Parsing [66.55478402233399]
本稿では,ポアンカー距離測定に基づく探索手法を用いて,関係構造を抽出する枠組みを提案する。
スキーマリンクの一般的なルールベース手法と比較して,探索関係は意味的対応をしっかりと捉えることができることがわかった。
我々のフレームワークは3つのベンチマークで最先端のパフォーマンスを新たに設定する。
論文 参考訳(メタデータ) (2022-06-28T14:05:25Z) - TABBIE: Pretrained Representations of Tabular Data [22.444607481407633]
表データのみから学習する単純な事前学習目標を考案する。
競合するアプローチとは異なり、我々のモデル(TABBIE)は全てのテーブルサブストラクチャの埋め込みを提供する。
学習したセル,列,行の表現を定性的に分析した結果,複雑なテーブルの意味や数値的傾向が理解できた。
論文 参考訳(メタデータ) (2021-05-06T11:15:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。