論文の概要: Structural Deep Encoding for Table Question Answering
- arxiv url: http://arxiv.org/abs/2503.01457v1
- Date: Mon, 03 Mar 2025 12:16:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:25:12.861427
- Title: Structural Deep Encoding for Table Question Answering
- Title(参考訳): テーブル質問応答のための構造深層符号化
- Authors: Raphaël Mouravieff, Benjamin Piwowarski, Sylvain Lamprier,
- Abstract要約: トランスフォーマーベースのアーキテクチャは、しばしばテーブル構造をフラットにする。
これにより、行、列、セル間の本質的な相互依存性が失われる可能性がある。
本稿では,計算効率を向上するだけでなく,構造的整合性も維持する,テーブル状データのための新しいスパークアテンションマスクの設計を提案する。
- 参考スコア(独自算出の注目度): 19.58143979341734
- License:
- Abstract: Although Transformers-based architectures excel at processing textual information, their naive adaptation for tabular data often involves flattening the table structure. This simplification can lead to the loss of essential inter-dependencies between rows, columns, and cells, while also posing scalability challenges for large tables. To address these issues, prior works have explored special tokens, structured embeddings, and sparse attention patterns. In this paper, we conduct a comprehensive analysis of tabular encoding techniques, which highlights the crucial role of attention sparsity in preserving structural information of tables. We also introduce a set of novel sparse attention mask designs for tabular data, that not only enhance computational efficiency but also preserve structural integrity, leading to better overall performance.
- Abstract(参考訳): トランスフォーマーベースのアーキテクチャはテキスト情報処理に優れるが、表構造を平らにすることが多い。
この単純化により、行、列、セル間の本質的な相互依存性が失われると同時に、大きなテーブルにスケーラビリティ上の課題が生じる可能性がある。
これらの問題に対処するため、先行研究では、特別なトークン、構造化された埋め込み、まばらな注意パターンを探索してきた。
本稿では,表の構造情報を保存する上での注意空間の重要性を浮き彫りにした,表型符号化手法の包括的解析を行う。
また、計算効率を向上するだけでなく、構造的整合性を保ち、全体的な性能を向上する新しいスパークス・アテンション・マスクの設計も導入する。
関連論文リスト
- Theme-Explanation Structure for Table Summarization using Large Language Models: A Case Study on Korean Tabular Data [1.0621665950143144]
本稿では,テーマ記述構造に基づくテーブル要約パイプライン(Tabular-TX)を提案する。
テーマ部が副詞句として現れ、説明部が予測節として続く構造化形式に従って要約文を生成する。
実験の結果,Tabular-TXは従来の微調整法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-01-17T08:42:49Z) - Tree-of-Table: Unleashing the Power of LLMs for Enhanced Large-Scale Table Understanding [42.841205217768106]
トレー・オブ・タブル(Tree-of-Table)は、LLMが大規模で複雑なテーブル上での推論能力を高めるために設計された新しいアプローチである。
Tree-of-Tableは優れた性能を持つ新しいベンチマークをセットし、大規模テーブル推論における顕著な効率性と一般化能力を示す。
論文 参考訳(メタデータ) (2024-11-13T11:02:04Z) - TableRAG: Million-Token Table Understanding with Language Models [53.039560091592215]
TableRAG(TableRAG)は、LMベースのテーブル理解用に特別に設計された検索拡張生成(RAG)フレームワークである。
TableRAGは、スキーマとセル検索を組み合わせたクエリ拡張を活用して、LMにそれを提供する前に重要な情報をピンポイントする。
以上の結果から,TableRAGは検索精度が向上し,大規模テーブル理解における最先端性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-10-07T04:15:02Z) - Knowledge in Triples for LLMs: Enhancing Table QA Accuracy with Semantic Extraction [1.0968343822308813]
本稿では,表型データから直交三重項を抽出し,それを検索拡張生成(RAG)モデルに統合することにより,微調整GPT-3.5-turbo-0125モデルにより生成された応答の精度,コヒーレンス,コンテキスト的リッチ性を向上させる手法を提案する。
FeTaQAデータセットの既存のベースライン、特にSacre-BLEUとROUGEの指標に優れています。
論文 参考訳(メタデータ) (2024-09-21T16:46:15Z) - UniTabNet: Bridging Vision and Language Models for Enhanced Table Structure Recognition [55.153629718464565]
我々は、画像からテキストへのモデルに基づくテーブル構造解析のための新しいフレームワークUniTabNetを紹介する。
UniTabNetは、画像とテキストのモデルを使ってテーブルセルを分離し、物理デコーダと論理デコーダを統合して完全なテーブル構造を再構築する。
論文 参考訳(メタデータ) (2024-09-20T01:26:32Z) - Towards Table-to-Text Generation with Pretrained Language Model: A Table
Structure Understanding and Text Deliberating Approach [60.03002572791552]
本稿では,テーブル構造理解とテキスト検討手法,すなわちTASDを提案する。
具体的には,表構造を考慮したテキスト生成モデルを実現するために,三層多層アテンションネットワークを考案する。
われわれのアプローチは、様々な種類のテーブルに対して忠実で流動的な記述テキストを生成することができる。
論文 参考訳(メタデータ) (2023-01-05T14:03:26Z) - Efficient Information Sharing in ICT Supply Chain Social Network via
Table Structure Recognition [12.79419287446918]
テーブル構造認識(TSR)は、機械解釈可能な形式で複雑な構造を持つテーブルを表現することを目的としている。
我々は、Faster-RCNNに基づく提案手法を実装し、平均精度(AP)で94.79%を達成する。
論文 参考訳(メタデータ) (2022-11-03T20:03:07Z) - Table Retrieval May Not Necessitate Table-specific Model Design [83.27735758203089]
テーブル検索のタスクに焦点をあてて、"テーブル固有のモデル設計はテーブル検索に必要か?
自然質問データセット (NQ-table) の表に基づく分析の結果, 70%以上の症例では構造が無視できる役割を担っていることがわかった。
次に、テーブル構造、すなわち補助列/カラム埋め込み、ハードアテンションマスク、ソフトリレーションに基づくアテンションバイアスを明示的にエンコードする3つのモジュールを実験する。
いずれも大きな改善は得られず、テーブル固有のモデル設計がテーブル検索に不要である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:35:23Z) - TGRNet: A Table Graph Reconstruction Network for Table Structure
Recognition [76.06530816349763]
本稿では,表構造認識のためのエンドツーエンドのトレーニング可能な表グラフ再構成ネットワーク(TGRNet)を提案する。
具体的には,異なる細胞の空間的位置と論理的位置を共同で予測するために,細胞検出枝と細胞論理的位置分岐の2つの主枝を有する。
論文 参考訳(メタデータ) (2021-06-20T01:57:05Z) - TUTA: Tree-based Transformers for Generally Structured Table
Pre-training [47.181660558590515]
テーブル理解に関する最近の試みは、主にリレーショナルテーブルに焦点を当てているが、他の一般的なテーブル構造を見落としている。
本稿では、一般に構造化されたテーブルを理解するための統合事前学習アーキテクチャであるTUTAを提案する。
TUTAは非常に効果的で、広く研究されている5つのデータセットの最先端を実現している。
論文 参考訳(メタデータ) (2020-10-21T13:22:31Z) - Identifying Table Structure in Documents using Conditional Generative
Adversarial Networks [0.0]
多くの産業や学術研究において、情報は主に構造化されていない文書の形で伝達される。
本稿では,まず,テーブルイメージを標準化されたスケルトンテーブル形式にマッピングするために,条件付き生成逆数ネットワークを用いたトップダウンアプローチを提案する。
次に、xy-cutプロジェクションと遺伝的アルゴリズムを用いた潜在テーブル構造を導出する。
論文 参考訳(メタデータ) (2020-01-13T20:42:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。