論文の概要: Efficient Information Sharing in ICT Supply Chain Social Network via
Table Structure Recognition
- arxiv url: http://arxiv.org/abs/2211.02128v1
- Date: Thu, 3 Nov 2022 20:03:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 17:22:21.537749
- Title: Efficient Information Sharing in ICT Supply Chain Social Network via
Table Structure Recognition
- Title(参考訳): テーブル構造認識によるICTサプライチェーンソーシャルネットワークの効率的な情報共有
- Authors: Bin Xiao, Yakup Akkaya, Murat Simsek, Burak Kantarci, Ala Abu Alkheir
- Abstract要約: テーブル構造認識(TSR)は、機械解釈可能な形式で複雑な構造を持つテーブルを表現することを目的としている。
我々は、Faster-RCNNに基づく提案手法を実装し、平均精度(AP)で94.79%を達成する。
- 参考スコア(独自算出の注目度): 12.79419287446918
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The global Information and Communications Technology (ICT) supply chain is a
complex network consisting of all types of participants. It is often formulated
as a Social Network to discuss the supply chain network's relations,
properties, and development in supply chain management. Information sharing
plays a crucial role in improving the efficiency of the supply chain, and
datasheets are the most common data format to describe e-component commodities
in the ICT supply chain because of human readability. However, with the surging
number of electronic documents, it has been far beyond the capacity of human
readers, and it is also challenging to process tabular data automatically
because of the complex table structures and heterogeneous layouts. Table
Structure Recognition (TSR) aims to represent tables with complex structures in
a machine-interpretable format so that the tabular data can be processed
automatically. In this paper, we formulate TSR as an object detection problem
and propose to generate an intuitive representation of a complex table
structure to enable structuring of the tabular data related to the commodities.
To cope with border-less and small layouts, we propose a cost-sensitive loss
function by considering the detection difficulty of each class. Besides, we
propose a novel anchor generation method using the character of tables that
columns in a table should share an identical height, and rows in a table should
share the same width. We implement our proposed method based on Faster-RCNN and
achieve 94.79% on mean Average Precision (AP), and consistently improve more
than 1.5% AP for different benchmark models.
- Abstract(参考訳): global information and communications technology (ict) サプライチェーンは、すべてのタイプの参加者からなる複雑なネットワークである。
しばしば、サプライチェーンネットワークの関係、特性、およびサプライチェーン管理の発展について議論するソーシャルネットワークとして定式化されている。
情報共有はサプライチェーンの効率向上に重要な役割を担い、データシートはICTサプライチェーンにおけるe-componentコモディティを記述する最も一般的なデータ形式である。
しかし,電子文書の急増に伴い,人間の読取能力ははるかに超えており,複雑な表構造や異質なレイアウトのため,表データの自動処理も困難である。
表構造認識(TSR)は、表データを自動的に処理できるように、機械解釈可能な形式で複雑な構造を持つテーブルを表現することを目的としている。
本稿では, tsrを物体検出問題として定式化し, 複雑な表構造を直感的に表現し, 商品に関連する表データの構築を可能にすることを提案する。
境界のないレイアウトと小さなレイアウトに対処するため,各クラスの検出難度を考慮したコスト感受性損失関数を提案する。
また,テーブル内の列が同じ高さで,テーブル内の行が同じ幅で共有されるような,テーブルの文字を用いた新しいアンカー生成手法を提案する。
提案手法は,高速rcnnに基づいて実装し,平均精度 (ap) で94.79% を達成し,ベンチマークモデルで1.5% ap以上向上した。
関連論文リスト
- Tree-of-Table: Unleashing the Power of LLMs for Enhanced Large-Scale Table Understanding [42.841205217768106]
トレー・オブ・タブル(Tree-of-Table)は、LLMが大規模で複雑なテーブル上での推論能力を高めるために設計された新しいアプローチである。
Tree-of-Tableは優れた性能を持つ新しいベンチマークをセットし、大規模テーブル推論における顕著な効率性と一般化能力を示す。
論文 参考訳(メタデータ) (2024-11-13T11:02:04Z) - A Survey on Deep Tabular Learning [0.0]
タブラルデータは、その不均一な性質と空間構造が欠如していることから、深層学習の独特な課題を提示する。
本調査では,早期完全接続ネットワーク(FCN)から,TabNet,SAINT,TabTranSELU,MambaNetといった先進アーキテクチャに至るまで,タブラルデータのディープラーニングモデルの進化を概観する。
論文 参考訳(メタデータ) (2024-10-15T20:08:08Z) - TC-OCR: TableCraft OCR for Efficient Detection & Recognition of Table Structure & Content [39.34067105360439]
本稿では,DeTR,CascadeTabNet,PP OCR v2といったディープラーニングモデルを統合し,総合的な画像ベースのテーブル認識を実現するエンドツーエンドパイプラインを提案する。
本システムでは,同時テーブル検出(TD),テーブル構造認識(TSR),テーブル内容認識(TCR)を実現している。
提案手法は0.96のIOUと78%のOCR精度を実現し,従来のテーブルトランスフォーマーに比べてOCR精度が約25%向上したことを示す。
論文 参考訳(メタデータ) (2024-04-16T06:24:53Z) - Zero-shot Composed Text-Image Retrieval [72.43790281036584]
合成画像検索(CIR)の問題点を考察する。
テキストや画像などのマルチモーダル情報を融合し、クエリにマッチする画像を正確に検索し、ユーザの表現能力を拡張できるモデルをトレーニングすることを目的としている。
論文 参考訳(メタデータ) (2023-06-12T17:56:01Z) - TRUST: An Accurate and End-to-End Table structure Recognizer Using
Splitting-based Transformers [56.56591337457137]
本稿では,TRUSTと呼ばれるテーブル構造認識手法を提案する。
変換器は、大域的な計算、完全メモリ、並列計算のためにテーブル構造認識に適している。
我々はPubTabNetやSynthTableなど,いくつかの人気のあるベンチマークで実験を行い,新しい最先端の結果を得た。
論文 参考訳(メタデータ) (2022-08-31T08:33:36Z) - Handling big tabular data of ICT supply chains: a multi-task,
machine-interpretable approach [13.976736586808308]
表構造認識(TSR)タスクと表細胞型分類(CTC)タスクを定義する。
提案手法は, ICDAR2013およびUNLVデータセットにおいて, 最先端の手法より優れる。
論文 参考訳(メタデータ) (2022-08-11T20:29:45Z) - Split, embed and merge: An accurate table structure recognizer [42.579215135672094]
テーブル構造認識器としてSplit, Embed, Merge (SEM) を導入する。
SEM は SciTSR データセットで平均 F-Measure の 96.9% を達成できる。
論文 参考訳(メタデータ) (2021-07-12T06:26:19Z) - TGRNet: A Table Graph Reconstruction Network for Table Structure
Recognition [76.06530816349763]
本稿では,表構造認識のためのエンドツーエンドのトレーニング可能な表グラフ再構成ネットワーク(TGRNet)を提案する。
具体的には,異なる細胞の空間的位置と論理的位置を共同で予測するために,細胞検出枝と細胞論理的位置分岐の2つの主枝を有する。
論文 参考訳(メタデータ) (2021-06-20T01:57:05Z) - Multi-Type-TD-TSR -- Extracting Tables from Document Images using a
Multi-stage Pipeline for Table Detection and Table Structure Recognition:
from OCR to Structured Table Representations [63.98463053292982]
テーブルの認識は、テーブル検出とテーブル構造認識という2つの主要なタスクから構成される。
最近の研究は、テーブル構造認識のタスクにトランスファーラーニングを併用したディープラーニングアプローチへの明確な傾向を示している。
本稿では,テーブル認識問題に対するエンドツーエンドのソリューションを提供するMulti-Type-TD-TSRというマルチステージパイプラインを提案する。
論文 参考訳(メタデータ) (2021-05-23T21:17:18Z) - TCN: Table Convolutional Network for Web Table Interpretation [52.32515851633981]
テーブル内情報とテーブル間情報の両方を考慮した新しいテーブル表現学習手法を提案する。
カラムタイプ予測ではf1の4.8%、カラム対関係予測ではf1の4.1%で競合ベースラインを上回ることができる。
論文 参考訳(メタデータ) (2021-02-17T02:18:10Z) - A Graph Representation of Semi-structured Data for Web Question
Answering [96.46484690047491]
本稿では、半構造化データとそれらの関係の構成要素の体系的分類に基づいて、Webテーブルとリストのグラフ表現を提案する。
本手法は,最先端のベースラインに対してF1スコアを3.90ポイント向上させる。
論文 参考訳(メタデータ) (2020-10-14T04:01:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。