論文の概要: Tree-of-Table: Unleashing the Power of LLMs for Enhanced Large-Scale Table Understanding
- arxiv url: http://arxiv.org/abs/2411.08516v1
- Date: Wed, 13 Nov 2024 11:02:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 16:11:36.781903
- Title: Tree-of-Table: Unleashing the Power of LLMs for Enhanced Large-Scale Table Understanding
- Title(参考訳): Tree-of-Table: 大規模テーブル理解のためのLLMのパワーの解放
- Authors: Deyi Ji, Lanyun Zhu, Siqi Gao, Peng Xu, Hongtao Lu, Jieping Ye, Feng Zhao,
- Abstract要約: トレー・オブ・タブル(Tree-of-Table)は、LLMが大規模で複雑なテーブル上での推論能力を高めるために設計された新しいアプローチである。
Tree-of-Tableは優れた性能を持つ新しいベンチマークをセットし、大規模テーブル推論における顕著な効率性と一般化能力を示す。
- 参考スコア(独自算出の注目度): 42.841205217768106
- License:
- Abstract: The ubiquity and value of tables as semi-structured data across various domains necessitate advanced methods for understanding their complexity and vast amounts of information. Despite the impressive capabilities of large language models (LLMs) in advancing the natural language understanding frontier, their application to large-scale tabular data presents significant challenges, specifically regarding table size and complex intricate relationships. Existing works have shown promise with small-scale tables but often flounder when tasked with the complex reasoning required by larger, interconnected tables found in real-world scenarios. To address this gap, we introduce "Tree-of-Table", a novel approach designed to enhance LLMs' reasoning capabilities over large and complex tables. Our method employs Table Condensation and Decomposition to distill and reorganize relevant data into a manageable format, followed by the construction of a hierarchical Table-Tree that facilitates tree-structured reasoning. Through a meticulous Table-Tree Execution process, we systematically unravel the tree-structured reasoning chain to derive the solutions. Experiments across diverse datasets, including WikiTQ, TableFact, FeTaQA, and BIRD, demonstrate that Tree-of-Table sets a new benchmark with superior performance, showcasing remarkable efficiency and generalization capabilities in large-scale table reasoning.
- Abstract(参考訳): 様々な領域にわたる半構造化データとしての表の有用性と価値は、その複雑さと膨大な情報を理解するための高度な方法を必要とする。
自然言語理解のフロンティアを前進させる大きな言語モデル(LLM)の印象的な能力にもかかわらず、大規模な表データへの応用は、特にテーブルサイズと複雑な複雑な関係性に関して重要な課題を呈している。
既存の作業では、小規模のテーブルが約束されているが、現実のシナリオで見られる大きな相互接続テーブルが必要とする複雑な推論を扱うと、しばしば混乱する。
このギャップに対処するために,大規模で複雑なテーブル上でのLLMの推論能力を高めるために設計された,新しいアプローチであるTree-of-Tableを導入する。
本手法では, 木構造推論を容易にする階層型テーブルトレーの構築に続き, 関係データの蒸留・再編成にテーブル凝縮と分解を用いる。
厳密なテーブル-トレー実行プロセスを通じて、木構造推論チェーンを体系的に解を導出する。
WikiTQ、TableFact、FeTaQA、BIRDなど、さまざまなデータセットを対象とした実験では、Tree-of-Tableがパフォーマンスに優れた新しいベンチマークを設定し、大規模なテーブル推論における顕著な効率性と一般化能力を示している。
関連論文リスト
- TableRAG: Million-Token Table Understanding with Language Models [53.039560091592215]
TableRAG(TableRAG)は、LMベースのテーブル理解用に特別に設計された検索拡張生成(RAG)フレームワークである。
TableRAGは、スキーマとセル検索を組み合わせたクエリ拡張を活用して、LMにそれを提供する前に重要な情報をピンポイントする。
以上の結果から,TableRAGは検索精度が向上し,大規模テーブル理解における最先端性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-10-07T04:15:02Z) - Knowledge in Triples for LLMs: Enhancing Table QA Accuracy with Semantic Extraction [1.0968343822308813]
本稿では,表型データから直交三重項を抽出し,それを検索拡張生成(RAG)モデルに統合することにより,微調整GPT-3.5-turbo-0125モデルにより生成された応答の精度,コヒーレンス,コンテキスト的リッチ性を向上させる手法を提案する。
FeTaQAデータセットの既存のベースライン、特にSacre-BLEUとROUGEの指標に優れています。
論文 参考訳(メタデータ) (2024-09-21T16:46:15Z) - ALTER: Augmentation for Large-Table-Based Reasoning [5.164923314261229]
ALTER(Augmentation for Large-Table-Based Reasoning)は、NL (Free-form Natural Language) とNL (Augmentation for Large-Table-Based Reasoning) の双方の質問において、潜在的な拡張可能性を活用するために設計されたフレームワークである。
テーブルからの関連データの小さなサブセットのみを利用することで、ALTERはテーブルベースの推論ベンチマークで優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-07-03T12:34:45Z) - TabPedia: Towards Comprehensive Visual Table Understanding with Concept Synergy [81.76462101465354]
本稿では,概念相乗効果機構を備えた新しい大型視触覚モデルTabPediaを提案する。
この統合されたフレームワークにより、TabPediaはテーブル検出、テーブル構造認識、テーブルクエリ、テーブル質問応答などのVTUタスクをシームレスに統合できる。
実世界のシナリオにおけるVTUタスクをよりよく評価するために、新しい総合的なテーブルVQAベンチマークComTQAを構築した。
論文 参考訳(メタデータ) (2024-06-03T13:54:05Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - Table Retrieval May Not Necessitate Table-specific Model Design [83.27735758203089]
テーブル検索のタスクに焦点をあてて、"テーブル固有のモデル設計はテーブル検索に必要か?
自然質問データセット (NQ-table) の表に基づく分析の結果, 70%以上の症例では構造が無視できる役割を担っていることがわかった。
次に、テーブル構造、すなわち補助列/カラム埋め込み、ハードアテンションマスク、ソフトリレーションに基づくアテンションバイアスを明示的にエンコードする3つのモジュールを実験する。
いずれも大きな改善は得られず、テーブル固有のモデル設計がテーブル検索に不要である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:35:23Z) - TUTA: Tree-based Transformers for Generally Structured Table
Pre-training [47.181660558590515]
テーブル理解に関する最近の試みは、主にリレーショナルテーブルに焦点を当てているが、他の一般的なテーブル構造を見落としている。
本稿では、一般に構造化されたテーブルを理解するための統合事前学習アーキテクチャであるTUTAを提案する。
TUTAは非常に効果的で、広く研究されている5つのデータセットの最先端を実現している。
論文 参考訳(メタデータ) (2020-10-21T13:22:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。