論文の概要: NormTab: Improving Symbolic Reasoning in LLMs Through Tabular Data Normalization
- arxiv url: http://arxiv.org/abs/2406.17961v1
- Date: Tue, 25 Jun 2024 22:40:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-27 15:07:42.370390
- Title: NormTab: Improving Symbolic Reasoning in LLMs Through Tabular Data Normalization
- Title(参考訳): NormTab: 語彙データ正規化によるLLMのシンボリック推論の改善
- Authors: Md Mahadi Hasan Nahid, Davood Rafiei,
- Abstract要約: 我々は,Webテーブルの正規化によるLarge Language Models(LLMs)のシンボリック推論性能の向上を目的としたフレームワークであるNormTabを紹介した。
表データのシンボリック推論を支援するために, LLMを用いてテーブル正規化を1回1回1回前処理ステップとして検討する。
WikiTableQuestion や TabFact などの Web テーブルデータセットを用いた実験により,NormTab の活用がシンボル推論性能を大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 6.253771639590562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, Large Language Models (LLMs) have demonstrated remarkable capabilities in parsing textual data and generating code. However, their performance in tasks involving tabular data, especially those requiring symbolic reasoning, faces challenges due to the structural variance and inconsistency in table cell values often found in web tables. In this paper, we introduce NormTab, a novel framework aimed at enhancing the symbolic reasoning performance of LLMs by normalizing web tables. We study table normalization as a stand-alone, one-time preprocessing step using LLMs to support symbolic reasoning on tabular data. Our experimental evaluation, conducted on challenging web table datasets such as WikiTableQuestion and TabFact, demonstrates that leveraging NormTab significantly improves symbolic reasoning performance, showcasing the importance and effectiveness of web table normalization for enhancing LLM-based symbolic reasoning tasks.
- Abstract(参考訳): 近年,Large Language Models (LLMs) はテキストデータの解析やコード生成において顕著な能力を発揮している。
しかし、表表データ、特に記号的推論を必要とするタスクにおけるそれらのパフォーマンスは、Webテーブルでよく見られる表セル値の構造的ばらつきと矛盾のため、課題に直面している。
本稿では,Web テーブルの正規化による LLM のシンボリック推論性能の向上を目的とした,新しいフレームワークである NormTab を紹介する。
表データのシンボリック推論を支援するために,LCMを用いてテーブル正規化を1回1回1回前処理ステップとして検討する。
WikiTableQuestion や TabFact などの Web テーブルデータセットを用いた実験により,NormTab の活用はシンボル推論性能を大幅に向上し,LLM に基づく記号推論タスクの強化に Web テーブル正規化の重要性と有効性を示した。
関連論文リスト
- TableRAG: Million-Token Table Understanding with Language Models [53.039560091592215]
TableRAG(TableRAG)は、LMベースのテーブル理解用に特別に設計された検索拡張生成(RAG)フレームワークである。
TableRAGは、スキーマとセル検索を組み合わせたクエリ拡張を活用して、LMにそれを提供する前に重要な情報をピンポイントする。
以上の結果から,TableRAGは検索精度が向上し,大規模テーブル理解における最先端性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-10-07T04:15:02Z) - Enhancing Temporal Understanding in LLMs for Semi-structured Tables [50.59009084277447]
我々は、大規模言語モデル(LLM)の特定の限界を特定するために、時間的データセットの包括的な分析を行う。
調査の結果,時間的時間的質問応答に特化したデータセットであるTempTabQAが強化された。
我々は,この領域におけるLLM機能を強化するために,新しいアプローチC.L.E.A.R.を導入する。
論文 参考訳(メタデータ) (2024-07-22T20:13:10Z) - A Survey of Table Reasoning with Large Language Models [55.2326738851157]
大規模言語モデル(LLM)の使用は、テーブル推論の主流となる。
LLM時代におけるテーブル推論性能の向上に使用される主流技術について分析する。
本研究は,既存手法の改良と実用化の拡充の両面から研究の方向性を示す。
論文 参考訳(メタデータ) (2024-02-13T07:17:52Z) - Chain-of-Table: Evolving Tables in the Reasoning Chain for Table
Understanding [79.9461269253121]
そこで我々は、中間思考のプロキシとして、図表データを推論チェーンで明示的に使用するChain-of-Tableフレームワークを提案する。
Chain-of-TableはWikiTQ、FeTaQA、TabFactベンチマークで最新のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-01-09T07:46:26Z) - Rethinking Tabular Data Understanding with Large Language Models [39.38132513255292]
本研究では,大規模言語モデル(LLM)のテーブル構造摂動に対する堅牢性について検討する。
我々は,同じ内容を示す表の構造的差異が,特に記号的推論タスクにおいて顕著な性能低下を示すことを示した。
テキストおよび記号的推論経路の集約は, 混合自己整合機構によって促進され, SOTA性能が73.6%向上し, WIKITABLEQUESTIONSの精度が向上した。
論文 参考訳(メタデータ) (2023-12-27T19:58:52Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - TABLET: Learning From Instructions For Tabular Data [46.62140500101618]
TABLETは、20の多様なデータセットのベンチマークで、その説明、粒度、技術的に異なる命令をアノテートする。
テキスト内命令はFlan-T5 11bのゼロショットF1性能を平均44%向上し,TABLETのChatGPTは13%向上した。
論文 参考訳(メタデータ) (2023-04-25T23:07:20Z) - GraPPa: Grammar-Augmented Pre-Training for Table Semantic Parsing [117.98107557103877]
テーブルセマンティック解析のための効果的な事前学習手法GraPPaを提案する。
我々は、同期文脈自由文法を用いて、高自由度テーブル上に合成質問ペアを構築する。
実世界のデータを表現できるモデルの能力を維持するため、マスキング言語モデリングも含んでいる。
論文 参考訳(メタデータ) (2020-09-29T08:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。