論文の概要: ProTrix: Building Models for Planning and Reasoning over Tables with
Sentence Context
- arxiv url: http://arxiv.org/abs/2403.02177v1
- Date: Mon, 4 Mar 2024 16:21:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 18:06:11.383688
- Title: ProTrix: Building Models for Planning and Reasoning over Tables with
Sentence Context
- Title(参考訳): ProTrix: 意味コンテキストを持つテーブル上での計画と推論のためのモデルの構築
- Authors: Zirui Wu and Yansong Feng
- Abstract要約: 文コンテキストを持つテーブル上で異なるタイプのユーザクエリに応答するPlan-then-Reasonフレームワークを提案する。
フレームワークはまず、コンテキスト上の推論パスを計画し、次に各ステップをプログラムベースまたはテキスト推論に割り当てて最終回答に到達する。
我々のデータセットは、計画や推論能力を得るために、プログラムで解決できないクエリや、表や文からの情報の組み合わせを必要とするクエリをカバーしています。
- 参考スコア(独自算出の注目度): 35.82199286004682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tables play a crucial role in conveying information in various domains,
serving as indispensable tools for organizing and presenting data in a
structured manner. We propose a Plan-then-Reason framework to answer different
types of user queries over tables with sentence context. The framework first
plans the reasoning paths over the context, then assigns each step to
program-based or textual reasoning to reach the final answer. We construct an
instruction tuning set TrixInstruct following the framework. Our dataset cover
queries that are program-unsolvable or need combining information from tables
and sentences to obtain planning and reasoning abilities. We present ProTrix by
finetuning Llama-2-7B on TrixInstruct. Our experiments show that ProTrix
generalizes to diverse tabular tasks and achieves comparable performance to
GPT-3.5-turbo. We further demonstrate that ProTrix can generate accurate and
faithful explanations to answer complex free-form questions. Our work
underscores the importance of the planning and reasoning abilities towards a
model over tabular tasks with generalizability and interpretability. We will
release our dataset and model at https://github.com/WilliamZR/ProTrix.
- Abstract(参考訳): テーブルは様々なドメインの情報伝達において重要な役割を担い、構造化された方法でデータを整理・提示するために必要なツールとして機能する。
文コンテキストを持つテーブル上で異なるタイプのユーザクエリに応答するPlan-then-Reasonフレームワークを提案する。
フレームワークはまず、コンテキスト上の推論パスを計画し、次に各ステップをプログラムベースまたはテキスト推論に割り当てて最終回答に到達する。
フレームワークに従う命令チューニングセットTrixInstructを構築します。
私たちのデータセットは、プログラムが解決できないクエリや、計画や推論能力を得るためにテーブルと文の情報を組み合わせる必要があるクエリをカバーします。
我々は、TrixInstruct上でLlama-2-7Bを微調整することでProTrixを提示する。
実験の結果,ProTrixは多種多様なタスクに一般化し,GPT-3.5-turboに匹敵する性能を示した。
さらに、複雑な自由形式の質問に答えるために、ProTrixが正確で忠実な説明を生成することを実証する。
我々の研究は、一般化可能性と解釈可能性を備えた表型タスクに対するモデルに対する計画と推論能力の重要性を強調している。
私たちはデータセットとモデルをhttps://github.com/williamzr/protrixでリリースします。
関連論文リスト
- Chain-of-Table: Evolving Tables in the Reasoning Chain for Table
Understanding [79.9461269253121]
そこで我々は、中間思考のプロキシとして、図表データを推論チェーンで明示的に使用するChain-of-Tableフレームワークを提案する。
Chain-of-TableはWikiTQ、FeTaQA、TabFactベンチマークで最新のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-01-09T07:46:26Z) - Guiding Language Model Reasoning with Planning Tokens [122.43639723387516]
大規模言語モデル(LLM)は、最近、複雑な推論タスクを実行する能力に対して、かなりの関心を集めている。
より構造的なチェーン・オブ・シークレット・ステップの創出を促す階層的な生成手法を提案する。
提案手法では、トレーニング可能なパラメータ(0.001%)の無視可能な増加が必要であり、完全な微調整か、よりパラメータ効率の良いスキームで適用することができる。
論文 参考訳(メタデータ) (2023-10-09T13:29:37Z) - MultiTabQA: Generating Tabular Answers for Multi-Table Question
Answering [61.48881995121938]
実世界のクエリは本質的に複雑で、リレーショナルデータベースやWebページ内の複数のテーブルにまたがることが多い。
我々のモデルであるMultiTabQAは、複数のテーブル上の質問に答えるだけでなく、表形式の回答を生成するために一般化する。
論文 参考訳(メタデータ) (2023-05-22T08:25:15Z) - Realistic Data Augmentation Framework for Enhancing Tabular Reasoning [15.339526664699845]
半構造化テーブル推論のような自然言語推論タスクのためのトレーニングデータを構築するための既存のアプローチは、クラウドソーシングまたは完全に自動化された方法である。
本稿では,表型推論のためのデータ拡張のための現実的な半自動フレームワークを開発する。
論文 参考訳(メタデータ) (2022-10-23T17:32:19Z) - ReasTAP: Injecting Table Reasoning Skills During Pre-training via
Synthetic Reasoning Examples [15.212332890570869]
複雑なテーブル固有のアーキテクチャ設計を必要とせずに、事前学習中に高レベルのテーブル推論スキルをモデルに注入できることを示すためにReasTAPを開発した。
ReasTAPはすべてのベンチマークで最新のパフォーマンスを実現し、低リソース設定で大幅に改善されている。
論文 参考訳(メタデータ) (2022-10-22T07:04:02Z) - Dynamic Prompt Learning via Policy Gradient for Semi-structured
Mathematical Reasoning [150.17907456113537]
数学的な推論を必要とする38,431のグレードレベルの問題を含む新しいデータセットであるTabular Math Word Problems (TabMWP)を提案する。
我々は,GPT-3モデルを含む,TabMWP上での事前学習モデルの評価を行った。
本稿では、ポリシー勾配を利用して、少量のトレーニングデータからコンテキスト内サンプルを選択する新しいアプローチ、PromptPGを提案する。
論文 参考訳(メタデータ) (2022-09-29T08:01:04Z) - OmniTab: Pretraining with Natural and Synthetic Data for Few-shot
Table-based Question Answering [106.73213656603453]
最小限のアノテーションによるテーブルベースのQAモデルを構築した。
本稿では、自然データと合成データの両方を消費する全能事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-08T01:23:45Z) - Proton: Probing Schema Linking Information from Pre-trained Language
Models for Text-to-SQL Parsing [66.55478402233399]
本稿では,ポアンカー距離測定に基づく探索手法を用いて,関係構造を抽出する枠組みを提案する。
スキーマリンクの一般的なルールベース手法と比較して,探索関係は意味的対応をしっかりと捉えることができることがわかった。
我々のフレームワークは3つのベンチマークで最先端のパフォーマンスを新たに設定する。
論文 参考訳(メタデータ) (2022-06-28T14:05:25Z) - TABBIE: Pretrained Representations of Tabular Data [22.444607481407633]
表データのみから学習する単純な事前学習目標を考案する。
競合するアプローチとは異なり、我々のモデル(TABBIE)は全てのテーブルサブストラクチャの埋め込みを提供する。
学習したセル,列,行の表現を定性的に分析した結果,複雑なテーブルの意味や数値的傾向が理解できた。
論文 参考訳(メタデータ) (2021-05-06T11:15:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。