論文の概要: TNCR: Table Net Detection and Classification Dataset
- arxiv url: http://arxiv.org/abs/2106.15322v1
- Date: Sat, 19 Jun 2021 10:48:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-04 22:58:19.742630
- Title: TNCR: Table Net Detection and Classification Dataset
- Title(参考訳): TNCR:テーブルネットの検出と分類データセット
- Authors: Abdelrahman Abdallah, Alexander Berendeyev, Islam Nuradin, Daniyar
Nurseitov
- Abstract要約: TNCRデータセットは、スキャンされた文書画像のテーブル検出と5つのクラスに分類される。
我々は、テーブル検出のための最先端のディープラーニングベースの手法を実装し、いくつかの強力なベースラインを構築した。
我々は、テーブルの検出、分類、構造認識に対するより深い学習アプローチを促進するために、TNCRをオープンソースにしました。
- 参考スコア(独自算出の注目度): 62.997667081978825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present TNCR, a new table dataset with varying image quality collected
from free websites. The TNCR dataset can be used for table detection in scanned
document images and their classification into 5 different classes. TNCR
contains 9428 high-quality labeled images. In this paper, we have implemented
state-of-the-art deep learning-based methods for table detection to create
several strong baselines. Cascade Mask R-CNN with ResNeXt-101-64x4d Backbone
Network achieves the highest performance compared to other methods with a
precision of 79.7%, recall of 89.8%, and f1 score of 84.4% on the TNCR dataset.
We have made TNCR open source in the hope of encouraging more deep learning
approaches to table detection, classification, and structure recognition. The
dataset and trained model checkpoints are available at
https://github.com/abdoelsayed2016/TNCR_Dataset.
- Abstract(参考訳): 無料webサイトから収集した画像品質の異なる新しいテーブルデータセットであるtncrを提案する。
TNCRデータセットは、スキャンされた文書画像のテーブル検出と5つのクラスに分類される。
tncrは9428枚の高品質のラベル付き画像を含む。
本稿では,テーブル検出のための最先端の深層学習手法を実装し,いくつかの強力なベースラインを構築した。
ResNeXt-101-64x4d Backbone Network の Cascade Mask R-CNN は、79.7%の精度、89.8%のリコール、84.4%のTNCRデータセットのf1スコアを持つ他の手法と比較して、最高のパフォーマンスを達成する。
我々は、テーブルの検出、分類、構造認識に対するより深い学習アプローチを促進するために、TNCRをオープンソースにした。
データセットとトレーニングされたモデルのチェックポイントは、https://github.com/abdoelsayed2016/tncr_datasetで利用可能である。
関連論文リスト
- Fuzzy Convolution Neural Networks for Tabular Data Classification [0.0]
畳み込みニューラルネットワーク(CNN)は、様々な領域における顕著な性能のために、多くの注目を集めている。
本稿では,表データに適したファジィ畳み込みニューラルネットワーク(FCNN)を提案する。
論文 参考訳(メタデータ) (2024-06-04T20:33:35Z) - Feature Extraction and Classification from Planetary Science Datasets
enabled by Machine Learning [0.4091406230302996]
近年の研究では、外惑星ミッションのデータセットに機械学習(ML)ニューラルネットワークを適用し、特徴認識を実現するための2つの事例を示す。
トレーニングデータセットにラベル付きブロックを認識するために,業界標準のMask R-CNNに新しいレイヤを追加し,トレーニングするトランスファーラーニングアプローチを採用しました。
別のアプリケーションでは、Titan上の雲を認識するためにMask R-CNNを適用しました。
論文 参考訳(メタデータ) (2023-10-26T11:43:55Z) - One-Shot Learning for Periocular Recognition: Exploring the Effect of
Domain Adaptation and Data Bias on Deep Representations [59.17685450892182]
広範に使用されているCNNモデルにおける深部表現の挙動をワンショット近視認識のための極端データ不足下で検討する。
我々は、バイオメトリックデータセットで訓練されたネットワークを数百万の画像で活用し、最先端の結果を改善した。
SIFTのような従来のアルゴリズムは、限られたデータでCNNより優れている。
論文 参考訳(メタデータ) (2023-07-11T09:10:16Z) - Text recognition on images using pre-trained CNN [2.191505742658975]
認識はChars74Kデータセットを使用してトレーニングされ、最高のモデル結果はIIIT-5K-Datasetのサンプルでテストされる。
検証データには97.94%、テストデータには98.16%、IIIT-5K-Datasetには95.62%の精度がある。
論文 参考訳(メタデータ) (2023-02-10T08:09:51Z) - RankDNN: Learning to Rank for Few-shot Learning [70.49494297554537]
本稿では、画像検索の関連性ランキングをバイナリランキング関係分類として活用する、新しい数ショット学習パイプラインを提案する。
これは、数ショットの学習に関する新しい視点を提供し、最先端の手法を補完する。
論文 参考訳(メタデータ) (2022-11-28T13:59:31Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Tamil Vowel Recognition With Augmented MNIST-like Data Set [0.0]
精度92%のデータセットを構築するための6万グレースケール28×28ピクセルの能力について報告する。
また、同じネットワーク上で、トップ1分類精度70%、トップ2分類精度92%を手書き母音で報告した。
論文 参考訳(メタデータ) (2020-06-09T19:17:30Z) - CascadeTabNet: An approach for end to end table detection and structure
recognition from image-based documents [4.199844472131922]
本稿では、テーブル検出と構造認識の両問題を解決するために、ディープラーニングに基づくエンドツーエンドアプローチの改善を提案する。
本稿ではカスケードマスク領域に基づくCNN高分解ネットワーク(カスケードマスクR-CNN HRNet)モデルを提案する。
ICDAR 2019テーブル構造認識データセットにおいて,最も精度の高い結果を得た。
論文 参考訳(メタデータ) (2020-04-27T08:12:48Z) - R-FCN: Object Detection via Region-based Fully Convolutional Networks [87.62557357527861]
我々は,高精度かつ効率的な物体検出のための領域ベースの完全畳み込みネットワークを提案する。
我々の結果は、Faster R-CNNよりも2.5-20倍高速で、1画像あたり170msのテストタイムで達成される。
論文 参考訳(メタデータ) (2016-05-20T15:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。