論文の概要: ICDAR 2023 Competition on Structured Text Extraction from Visually-Rich
Document Images
- arxiv url: http://arxiv.org/abs/2306.03287v1
- Date: Mon, 5 Jun 2023 22:20:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 18:13:48.573010
- Title: ICDAR 2023 Competition on Structured Text Extraction from Visually-Rich
Document Images
- Title(参考訳): ICDAR 2023 ビジュアルリッチ文書画像からの構造化テキスト抽出に関するコンペティション
- Authors: Wenwen Yu, Chengquan Zhang, Haoyu Cao, Wei Hua, Bohan Li, Huang Chen,
Mingyu Liu, Mingrui Chen, Jianfeng Kuang, Mengjun Cheng, Yuning Du, Shikun
Feng, Xiaoguang Hu, Pengyuan Lyu, Kun Yao, Yuechen Yu, Yuliang Liu, Wanxiang
Che, Errui Ding, Cheng-Lin Liu, Jiebo Luo, Shuicheng Yan, Min Zhang,
Dimosthenis Karatzas, Xing Sun, Jingdong Wang, and Xiang Bai
- Abstract要約: 大会は2022年12月30日に開かれ、2023年3月24日に閉幕した。
トラック1には35人の参加者と91人の有効な応募があり、トラック2には15人の参加者と26人の応募がある。
提案手法の性能によると, 複雑なシナリオやゼロショットシナリオにおいて, 期待される情報抽出性能にはまだ大きなギャップがあると考えられる。
- 参考スコア(独自算出の注目度): 198.35937007558078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Structured text extraction is one of the most valuable and challenging
application directions in the field of Document AI. However, the scenarios of
past benchmarks are limited, and the corresponding evaluation protocols usually
focus on the submodules of the structured text extraction scheme. In order to
eliminate these problems, we organized the ICDAR 2023 competition on Structured
text extraction from Visually-Rich Document images (SVRD). We set up two tracks
for SVRD including Track 1: HUST-CELL and Track 2: Baidu-FEST, where HUST-CELL
aims to evaluate the end-to-end performance of Complex Entity Linking and
Labeling, and Baidu-FEST focuses on evaluating the performance and
generalization of Zero-shot / Few-shot Structured Text extraction from an
end-to-end perspective. Compared to the current document benchmarks, our two
tracks of competition benchmark enriches the scenarios greatly and contains
more than 50 types of visually-rich document images (mainly from the actual
enterprise applications). The competition opened on 30th December, 2022 and
closed on 24th March, 2023. There are 35 participants and 91 valid submissions
received for Track 1, and 15 participants and 26 valid submissions received for
Track 2. In this report we will presents the motivation, competition datasets,
task definition, evaluation protocol, and submission summaries. According to
the performance of the submissions, we believe there is still a large gap on
the expected information extraction performance for complex and zero-shot
scenarios. It is hoped that this competition will attract many researchers in
the field of CV and NLP, and bring some new thoughts to the field of Document
AI.
- Abstract(参考訳): 構造化テキスト抽出は、Document AIの分野で最も価値が高く、困難なアプリケーション方向の1つである。
しかし、過去のベンチマークのシナリオは限られており、対応する評価プロトコルは通常、構造化テキスト抽出スキームのサブモジュールに焦点を当てている。
これらの問題を解消するために、我々は、Visually-Rich Document Image (SVRD) から構造化テキストを抽出するICDAR 2023コンペティションを組織した。
Track 1: HUST-CELL と Track 2: Baidu-FEST では、HUST-CELL は複雑なエンティティリンクとラベルのエンドツーエンドのパフォーマンスを評価することを目的としており、Baidu-FEST は、Zero-shot / Few-shot Structured Text 抽出のパフォーマンスと一般化をエンドツーエンドの観点から評価することに焦点を当てている。
現在の文書ベンチマークと比較して、我々の2つの競合ベンチマークはシナリオを大幅に強化し、50種類以上の視覚的にリッチなドキュメントイメージ(主に実際のエンタープライズアプリケーションから)を含んでいる。
大会は2022年12月30日に開かれ、2023年3月24日に閉幕した。
トラック1には35人の参加者と91人の応募があり、トラック2には15人の参加者と26人の応募がある。
本報告では,モチベーション,競合データセット,タスク定義,評価プロトコル,提案要約について述べる。
提案の性能によると,複雑かつゼロショットのシナリオでは,期待情報抽出性能に依然として大きなギャップがあると考えています。
この競争はCVとNLPの分野で多くの研究者を惹きつけ、Document AIの分野に新たな考え方をもたらすことが期待されている。
関連論文リスト
- ICDAR 2023 Competition on Robust Layout Segmentation in Corporate
Documents [3.6700088931938835]
ICDARは、最先端の技術をベンチマークするコンペを主催する長い伝統がある。
以前のコンペティションよりもバーを上げるために、ハードコンペティションデータセットを設計し、トレーニング用の最近のDocLayNetデータセットを提案しました。
我々は,最近のコンピュータビジョンモデル,データ拡張戦略,アンサンブル手法の興味深い組み合わせを認識し,提案したタスクにおいて顕著な精度を実現する。
論文 参考訳(メタデータ) (2023-05-24T09:56:47Z) - ICDAR 2023 Competition on Hierarchical Text Detection and Recognition [60.68100769639923]
このコンペティションは、テキストの検出と認識を共同で行うディープラーニングモデルとシステムの研究を促進することを目的としている。
提案するコンペティション組織の詳細について,タスク,データセット,評価,スケジュールなどを紹介する。
大会期間中(2023年1月2日から2023年4月1日まで)、20チーム以上から少なくとも50人が提案された2つのタスクで応募された。
論文 参考訳(メタデータ) (2023-05-16T18:56:12Z) - ICDAR 2023 Competition on Reading the Seal Title [58.866588777012744]
この領域での研究を促進するため、シールタイトル(ReST)を読むためのICDAR 2023コンペティションを組織した。
我々は1万の実際のシールデータからなるデータセットを構築し、最も一般的なシールのクラスをカバーし、すべてのシールタイトルテキストにテキストとテキストの内容をラベル付けした。
大会には、第1タスクの応募28件、第2タスクの応募25件を含む、学界や業界から53人の参加者が集まった。
論文 参考訳(メタデータ) (2023-04-24T10:01:41Z) - ICDAR 2023 Video Text Reading Competition for Dense and Small Text [61.138557702185274]
我々は,ビデオ中の高密度・小型のテキスト読解課題に焦点を当てた,ビデオテキスト読解ベンチマークDSTextを構築した。
提案したデータセットは、以前のデータセットと比較すると、主に3つの新しい課題を含んでいる。
提案したDSTextには、12のオープンシナリオから100のビデオクリップが含まれており、2つのタスク(例えば、ビデオテキストトラッキング(Task 1)と、エンドツーエンドのビデオテキストスポッティング(Task2)をサポートする。
論文 参考訳(メタデータ) (2023-04-10T04:20:34Z) - Out-of-Vocabulary Challenge Report [15.827931962904115]
Out-Of-Vocabulary 2022 (OOV) チャレンジでは、トレーニング時に見えないシーンテキストインスタンスの認識が導入されている。
コンペティションは、326,385のイメージと4,864,405のシーンテキストインスタンスからなる公開シーンテキストデータセットのコレクションをコンパイルする。
ベースラインと異なる参加者からの結果を徹底的に分析する。
論文 参考訳(メタデータ) (2022-09-14T15:25:54Z) - ICDAR 2021 Competition on Components Segmentation Task of Document
Photos [63.289361617237944]
3つの課題タスクが提案され、提供されたデータセット上で異なるセグメンテーションの割り当てが実行される。
収集されたデータはブラジルのいくつかのID文書のもので、その個人情報は便利に交換された。
さまざまなディープラーニングモデルが、各タスクで最高の結果を得るために、さまざまな戦略を持つ参加者によって適用されました。
論文 参考訳(メタデータ) (2021-06-16T00:49:58Z) - ICDAR2019 Competition on Scanned Receipt OCR and Information Extraction [70.71240097723745]
SROIEの技術的課題、重要性、および巨大な商業的可能性を認識し、私たちはSROIEでICDAR 2019コンペティションを開催しました。
競争のために1000全体のスキャンされたレシート画像とアノテーションを備えた新しいデータセットが作成されます。
本報告では,モチベーション,競合データセット,タスク定義,評価プロトコル,提出統計,提案手法の性能,結果分析について述べる。
論文 参考訳(メタデータ) (2021-03-18T12:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。