論文の概要: Large Language Model for Table Processing: A Survey
- arxiv url: http://arxiv.org/abs/2402.05121v1
- Date: Sun, 4 Feb 2024 00:47:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 18:09:39.230136
- Title: Large Language Model for Table Processing: A Survey
- Title(参考訳): テーブル処理のための大規模言語モデル:調査
- Authors: Weizheng Lu and Jiaming Zhang and Jing Zhang and Yueguo Chen
- Abstract要約: 大規模言語モデル (LLMs) は、学術や産業から大きな利益を得る。
テーブルは通常2次元で、大量のデータを格納するために構成され、データベースクエリやスプレッドシート計算、Webテーブルからのレポート生成といった日々のアクティビティに不可欠である。
この調査は、テーブル質問応答(Table QA)や事実検証といった従来の領域だけでなく、テーブル操作や高度なテーブルデータ分析といった、新たに強調された側面を含む、テーブルタスクの広範な概要を提供する。
- 参考スコア(独自算出の注目度): 9.144614058716083
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tables, typically two-dimensional and structured to store large amounts of
data, are essential in daily activities like database queries, spreadsheet
calculations, and generating reports from web tables. Automating these
table-centric tasks with Large Language Models (LLMs) offers significant public
benefits, garnering interest from academia and industry. This survey provides
an extensive overview of table tasks, encompassing not only the traditional
areas like table question answering (Table QA) and fact verification, but also
newly emphasized aspects such as table manipulation and advanced table data
analysis. Additionally, it goes beyond the early strategies of pre-training and
fine-tuning small language models, to include recent paradigms in LLM usage.
The focus here is particularly on instruction-tuning, prompting, and
agent-based approaches within the realm of LLMs. Finally, we highlight several
challenges, ranging from private deployment and efficient inference to the
development of extensive benchmarks for table manipulation and advanced data
analysis.
- Abstract(参考訳): データベースクエリやスプレッドシートの計算、webテーブルからのレポート生成など、日々のアクティビティには、通常2次元で大量のデータを格納するように構成されたテーブルが不可欠である。
テーブル中心のタスクを大規模言語モデル(llm)で自動化することは、大きな公共の利益をもたらし、学界や業界から関心を集めている。
この調査はテーブルタスクの広範な概要を提供し、テーブル質問応答(テーブルqa)や事実検証といった従来の領域だけでなく、テーブル操作や高度なテーブルデータ分析といった新たな側面も取り上げている。
加えて、LLMの使用の最近のパラダイムを含むように、事前トレーニングと微調整の小さな言語モデルの初期戦略を超えています。
特に、LLMの領域における命令チューニング、プロンプト、エージェントベースのアプローチに焦点を当てている。
最後に,プライベートデプロイメントや効率的な推論から,テーブル操作や高度なデータ解析のための広範なベンチマークの開発まで,いくつかの課題を取り上げる。
関連論文リスト
- A Survey of Table Reasoning with Large Language Models [55.2326738851157]
大規模言語モデル(LLM)の使用は、テーブル推論の主流となる。
LLM時代におけるテーブル推論性能の向上に使用される主流技術について分析する。
本研究は,既存手法の改良と実用化の拡充の両面から研究の方向性を示す。
論文 参考訳(メタデータ) (2024-02-13T07:17:52Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing
Semi-structured Data for Large Language Model Reasoning [58.11442663694328]
テーブルプロンプトを生成するための多用途前処理ツールボックスとして,TAP4LLMを提案する。
各モジュールにおいて、様々なシナリオで使用されるいくつかの一般的なメソッドを収集し、設計する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - TableLlama: Towards Open Large Generalist Models for Tables [24.65127791710951]
本稿では,多種多様なテーブルベースタスクのジェネラリストとして,オープンソースの大規模言語モデル(LLM)の開発に向けた第一歩を示す。
本研究では,様々な現実的なテーブルやタスクを備えた新しいデータセットであるTableInstructを構築し,LLMのチューニングと評価を行う。
さらに,LongLoRAを用いてLlama 2 (7B) を微調整することで,テーブル用の最初のオープンソースジェネラリストモデルであるTableLlamaを開発した。
論文 参考訳(メタデータ) (2023-11-15T18:47:52Z) - HELLaMA: LLaMA-based Table to Text Generation by Highlighting the
Important Evidence [6.837127761123152]
LLaMA2モデル上でパラメータ効率の良い微調整を行う。
我々のアプローチは、テーブル固有の行データを強調することにより、推論情報を入力に注入することである。
FetaQAデータセットとQTSummデータセットの両方で、我々のアプローチは最先端の結果を得た。
論文 参考訳(メタデータ) (2023-11-15T12:02:52Z) - QTSumm: Query-Focused Summarization over Tabular Data [58.62152746690958]
人々は主に、データ分析を行うか、特定の質問に答えるためにテーブルをコンサルティングします。
そこで本研究では,テキスト生成モデルに人間的な推論を行なわなければならない,クエリ中心のテーブル要約タスクを新たに定義する。
このタスクには,2,934テーブル上の7,111の人間注釈付きクエリ-サマリーペアを含む,QTSummという新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:43:51Z) - Embeddings for Tabular Data: A Survey [8.010589283146222]
タブラルデータは、同じ列(属性)のセットを持つ行(サンプル)を含む
テーブルは、さまざまな産業や学界でデータを保存する自然な方法になりつつある。
新しい研究の行は、様々なデータベースタスクをサポートするために様々な学習技術を適用している。
論文 参考訳(メタデータ) (2023-02-23T04:37:49Z) - Table Retrieval May Not Necessitate Table-specific Model Design [83.27735758203089]
テーブル検索のタスクに焦点をあてて、"テーブル固有のモデル設計はテーブル検索に必要か?
自然質問データセット (NQ-table) の表に基づく分析の結果, 70%以上の症例では構造が無視できる役割を担っていることがわかった。
次に、テーブル構造、すなわち補助列/カラム埋め込み、ハードアテンションマスク、ソフトリレーションに基づくアテンションバイアスを明示的にエンコードする3つのモジュールを実験する。
いずれも大きな改善は得られず、テーブル固有のモデル設計がテーブル検索に不要である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:35:23Z) - Table Pre-training: A Survey on Model Architectures, Pretraining
Objectives, and Downstream Tasks [37.35651138851127]
テキストや画像の成功を受けて、テーブル事前学習フレームワークの急激な普及が提案されている。
テーブル事前トレーニングは通常、テーブル-テキスト共同トレーニングの形式を取る。
この調査は、さまざまなモデル設計、事前学習目標、およびテーブル事前学習のための下流タスクの包括的なレビューを提供することを目的としている。
論文 参考訳(メタデータ) (2022-01-24T15:22:24Z) - A Graph Representation of Semi-structured Data for Web Question
Answering [96.46484690047491]
本稿では、半構造化データとそれらの関係の構成要素の体系的分類に基づいて、Webテーブルとリストのグラフ表現を提案する。
本手法は,最先端のベースラインに対してF1スコアを3.90ポイント向上させる。
論文 参考訳(メタデータ) (2020-10-14T04:01:54Z) - GraPPa: Grammar-Augmented Pre-Training for Table Semantic Parsing [117.98107557103877]
テーブルセマンティック解析のための効果的な事前学習手法GraPPaを提案する。
我々は、同期文脈自由文法を用いて、高自由度テーブル上に合成質問ペアを構築する。
実世界のデータを表現できるモデルの能力を維持するため、マスキング言語モデリングも含んでいる。
論文 参考訳(メタデータ) (2020-09-29T08:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。