論文の概要: A Survey of Table Reasoning with Large Language Models
- arxiv url: http://arxiv.org/abs/2402.08259v1
- Date: Tue, 13 Feb 2024 07:17:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 16:19:12.870170
- Title: A Survey of Table Reasoning with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたテーブル推論に関する調査
- Authors: Xuanliang Zhang, Dingzirui Wang, Longxu Dou, Qingfu Zhu, Wanxiang Che
- Abstract要約: 大規模言語モデル(LLM)の使用は、テーブル推論の主流となる。
LLM時代におけるテーブル推論性能の向上に使用される主流技術について分析する。
本研究は,既存手法の改良と実用化の拡充の両面から研究の方向性を示す。
- 参考スコア(独自算出の注目度): 55.2326738851157
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Table reasoning, which aims to generate the corresponding answer to the
question following the user requirement according to the provided table, and
optionally a text description of the table, effectively improving the
efficiency of obtaining information. Recently, using Large Language Models
(LLMs) has become the mainstream method for table reasoning, because it not
only significantly reduces the annotation cost but also exceeds the performance
of previous methods. However, existing research still lacks a summary of
LLM-based table reasoning works. Due to the existing lack of research,
questions about which techniques can improve table reasoning performance in the
era of LLMs, why LLMs excel at table reasoning, and how to enhance table
reasoning abilities in the future, remain largely unexplored. This gap
significantly limits progress in research. To answer the above questions and
advance table reasoning research with LLMs, we present this survey to analyze
existing research, inspiring future work. In this paper, we analyze the
mainstream techniques used to improve table reasoning performance in the LLM
era, and the advantages of LLMs compared to pre-LLMs for solving table
reasoning. We provide research directions from both the improvement of existing
methods and the expansion of practical applications to inspire future research.
- Abstract(参考訳): 提供された表に従ってユーザ要求に従う質問に対する対応する回答を生成し、オプションで表のテキスト記述を行うことを目的としたテーブル推論により、情報取得の効率を効果的に向上する。
近年,大規模言語モデル(llms)は,アノテーションコストを大幅に削減するだけでなく,従来の手法の性能を上回っているため,テーブル推論の主流となっている。
しかし、既存の研究では LLM ベースのテーブル推論作業の要約が不足している。
既存の研究の欠如により、LLMの時代におけるテーブル推論性能を改善する技術、LLMがテーブル推論において優れている理由、将来のテーブル推論能力を高める方法についての疑問は、まだ明らかにされていない。
このギャップは研究の進歩を著しく制限する。
上記の質問に答え,llmsを用いた事前テーブル推論研究を行い,既存の研究を解析し,今後の研究に着想を与える。
本稿では,LLM時代におけるテーブル推論性能の向上に使用される主流技術と,テーブル推論におけるLLM前の手法と比較してLLMの利点について分析する。
我々は,既存の手法の改善と,今後の研究を刺激する実践的応用の拡大から研究の方向性を提供する。
関連論文リスト
- Evaluating LLMs' Mathematical Reasoning in Financial Document Question
Answering [53.56653281752486]
本研究では,大言語モデルによる4つの財務質問応答データセットの数学的推論について検討する。
数理推論のステップの数が増えるにつれて、テーブルの複雑さや性能の変化に対する感度に焦点をあてる。
半構造化文書に適した新しいプロンプト技術を導入する。
論文 参考訳(メタデータ) (2024-02-17T05:10:18Z) - Large Language Model for Table Processing: A Survey [9.144614058716083]
大規模言語モデル (LLMs) は、学術や産業から大きな利益を得る。
テーブルは通常2次元で、大量のデータを格納するために構成され、データベースクエリやスプレッドシート計算、Webテーブルからのレポート生成といった日々のアクティビティに不可欠である。
この調査は、テーブル質問応答(Table QA)や事実検証といった従来の領域だけでなく、テーブル操作や高度なテーブルデータ分析といった、新たに強調された側面を含む、テーブルタスクの広範な概要を提供する。
論文 参考訳(メタデータ) (2024-02-04T00:47:53Z) - Chain-of-Table: Evolving Tables in the Reasoning Chain for Table
Understanding [79.9461269253121]
そこで我々は、中間思考のプロキシとして、図表データを推論チェーンで明示的に使用するChain-of-Tableフレームワークを提案する。
Chain-of-TableはWikiTQ、FeTaQA、TabFactベンチマークで最新のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-01-09T07:46:26Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing
Semi-structured Data for Large Language Model Reasoning [58.11442663694328]
テーブルプロンプトを生成するための多用途前処理ツールボックスとして,TAP4LLMを提案する。
各モジュールにおいて、様々なシナリオで使用されるいくつかの一般的なメソッドを収集し、設計する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - HELLaMA: LLaMA-based Table to Text Generation by Highlighting the
Important Evidence [6.837127761123152]
LLaMA2モデル上でパラメータ効率の良い微調整を行う。
我々のアプローチは、テーブル固有の行データを強調することにより、推論情報を入力に注入することである。
FetaQAデータセットとQTSummデータセットの両方で、我々のアプローチは最先端の結果を得た。
論文 参考訳(メタデータ) (2023-11-15T12:02:52Z) - Fill in the Blank: Exploring and Enhancing LLM Capabilities for Backward
Reasoning in Math Word Problems [18.69394742883921]
後方推論は数学用語の問題では 比較的未発見です
4つのSOTA LLMにおける前方推論と比較して,後方推論におけるモデルの精度は著しく低下した。
PAL-Tools はプログラム支援 LLM のアイデアを組み合わせて,外部の解法で解ける方程式の集合を生成し, 作業確認は, 前方方向の精度の高い自然検証器の可用性を活用する。
論文 参考訳(メタデータ) (2023-10-03T12:03:06Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical
Reasoning Capabilities of Language Models [58.76688462256284]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
一つのタスクトレーニング,複数タスクトレーニング,および思考知識の蒸留微調整手法の連鎖について検討し,異なる論理的推論カテゴリにおけるモデルの性能を評価する。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Effective Distillation of Table-based Reasoning Ability from LLMs [25.056556084582322]
大規模言語モデル(LLM)は、幅広い自然言語処理タスクにおいて顕著な性能を示している。
近年の研究では、LLMの特定の機能、例えば数値的推論は蒸留によってより小さなモデルに移行できることが明らかになっている。
本稿では, LLMをテーブルベースの推論タスク用に特別に設計された, より小型なモデルに蒸留することを目的とした, テーブルベースの推論蒸留を提案する。
論文 参考訳(メタデータ) (2023-09-22T21:15:28Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - Large Language Models are few(1)-shot Table Reasoners [31.036914270008978]
大規模言語モデル(LLM)は、テキスト推論タスクを解くために、非常に優れた数ショット推論器である。
本稿では,LLMが数発の文脈内学習でテーブルタスクでどれだけうまく機能するかを理解することを目的としている。
論文 参考訳(メタデータ) (2022-10-13T04:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。