論文の概要: TABLET: Table Structure Recognition using Encoder-only Transformers
- arxiv url: http://arxiv.org/abs/2506.07015v1
- Date: Sun, 08 Jun 2025 06:34:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.630039
- Title: TABLET: Table Structure Recognition using Encoder-only Transformers
- Title(参考訳): TABLET:エンコーダのみの変換器を用いたテーブル構造認識
- Authors: Qiyu Hou, Jun Wang,
- Abstract要約: 大規模で人口密度の高いテーブルに最適化されたスプリット・マージに基づく新しいトップダウンモデルを提案する。
提案手法は行と列の分割をシーケンスラベリングタスクとして定式化し,デュアルトランスフォーマーエンコーダを用いて特徴的相互作用をキャプチャする。
本手法は,高速な処理速度を維持しながら高い精度を実現し,分解能損失と計算複雑性を低減する。
- 参考スコア(独自算出の注目度): 5.525467421201709
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To address the challenges of table structure recognition, we propose a novel Split-Merge-based top-down model optimized for large, densely populated tables. Our approach formulates row and column splitting as sequence labeling tasks, utilizing dual Transformer encoders to capture feature interactions. The merging process is framed as a grid cell classification task, leveraging an additional Transformer encoder to ensure accurate and coherent merging. By eliminating unstable bounding box predictions, our method reduces resolution loss and computational complexity, achieving high accuracy while maintaining fast processing speed. Extensive experiments on FinTabNet and PubTabNet demonstrate the superiority of our model over existing approaches, particularly in real-world applications. Our method offers a robust, scalable, and efficient solution for large-scale table recognition, making it well-suited for industrial deployment.
- Abstract(参考訳): テーブル構造認識の課題に対処するために,大規模で人口密度の高いテーブルに最適化されたスプリット・マージに基づく新しいトップダウンモデルを提案する。
提案手法は行と列の分割をシーケンスラベリングタスクとして定式化し,デュアルトランスフォーマーエンコーダを用いて特徴的相互作用をキャプチャする。
マージングプロセスはグリッドセル分類タスクとしてフレーム化され、トランスフォーマーエンコーダが追加され、正確でコヒーレントなマージングが保証される。
不安定な境界ボックス予測を除去することにより、高速な処理速度を維持しながら高い精度を達成し、分解能損失と計算複雑性を低減できる。
FinTabNetとPubTabNetの大規模な実験は、既存のアプローチ、特に現実世界のアプリケーションにおいて、我々のモデルの優位性を実証している。
本手法は大規模テーブル認識のための堅牢でスケーラブルで効率的なソリューションであり,産業展開に適している。
関連論文リスト
- DETQUS: Decomposition-Enhanced Transformers for QUery-focused Summarization [0.6825805890534123]
要約精度の向上を目的としたDETQUS(Decomposition-Enhanced Transformer for QUery- Focus Summarization)を導入する。
テーブルサイズを削減し、重要な情報を保持しながら、クエリ関連列のみを保持するために、大きな言語モデルを使用します。
提案手法はテーブルベースQAモデルOmnitabを用いて,ROUGE-Lスコア0.4437を達成し,従来の最先端REFACTORモデル(ROUGE-L: 0.422)を上回った。
論文 参考訳(メタデータ) (2025-03-07T21:11:35Z) - Mixture of Attention Yields Accurate Results for Tabular Data [21.410818837489973]
本稿では,エンコーダ・デコーダ・トランスを用いたMAYAを提案する。
エンコーダでは、複数の並列注意枝を構成するMOA(Mixture of Attention)を設計する。
我々は、より堅牢な表現を生成するために、動的一貫性重み制約を伴う協調学習を採用する。
論文 参考訳(メタデータ) (2025-02-18T03:43:42Z) - RegFormer: An Efficient Projection-Aware Transformer Network for
Large-Scale Point Cloud Registration [73.69415797389195]
本稿では,大規模クラウドアライメントのためのエンドツーエンドトランス (RegFormer) ネットワークを提案する。
具体的には、プロジェクション対応階層変換器を提案し、長距離依存を捕捉し、外乱をフィルタする。
我々の変圧器は線形複雑であり、大規模シーンでも高い効率が保証される。
論文 参考訳(メタデータ) (2023-03-22T08:47:37Z) - TRUST: An Accurate and End-to-End Table structure Recognizer Using
Splitting-based Transformers [56.56591337457137]
本稿では,TRUSTと呼ばれるテーブル構造認識手法を提案する。
変換器は、大域的な計算、完全メモリ、並列計算のためにテーブル構造認識に適している。
我々はPubTabNetやSynthTableなど,いくつかの人気のあるベンチマークで実験を行い,新しい最先端の結果を得た。
論文 参考訳(メタデータ) (2022-08-31T08:33:36Z) - TSRFormer: Table Structure Recognition with Transformers [15.708108572696064]
本稿では,TSRFormerと呼ばれる新しいテーブル構造認識手法を提案する。
新たな2段階DETRに基づくセパレータ予測手法である textbfSeparator textbfREgression textbfTRansformer (SepRETR) を提案する。
我々は、SciTSR、PubTabNet、WTWなど、いくつかのベンチマークデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-08-09T17:36:13Z) - Dual-Flattening Transformers through Decomposed Row and Column Queries
for Semantic Segmentation [50.321277476317974]
本稿では,高解像度出力を実現するためにDual-Flattening Transformer (DFlatFormer)を提案する。
ADE20KおよびCityscapesデータセットの実験は、提案された2重平坦トランスアーキテクチャの優位性を実証している。
論文 参考訳(メタデータ) (2022-01-22T22:38:15Z) - Thinking Fast and Slow: Efficient Text-to-Visual Retrieval with
Transformers [115.90778814368703]
目的は,大規模画像とビデオデータセットの言語検索である。
このタスクでは、独立してテキストとビジョンを共同埋め込み空間 a.k.a にマッピングする。
デュアルエンコーダは 検索スケールとして魅力的です
視覚テキスト変換器をクロスアテンションで使用する別のアプローチは、関節埋め込みよりも精度が大幅に向上する。
論文 参考訳(メタデータ) (2021-03-30T17:57:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。