論文の概要: ICDAR 2021 Competition on Scene Video Text Spotting
- arxiv url: http://arxiv.org/abs/2107.11919v1
- Date: Mon, 26 Jul 2021 01:25:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 16:05:02.186799
- Title: ICDAR 2021 Competition on Scene Video Text Spotting
- Title(参考訳): icdar 2021 シーンビデオテキストスポッティングのコンペティション
- Authors: Zhanzhan Cheng, Jing Lu, Baorui Zou, Shuigeng Zhou, and Fei Wu
- Abstract要約: シーンビデオテキストスポッティング(SVTS)は,多くの実環境応用のために非常に重要な研究課題である。
本稿では,SVTS コンペティションにおける ICDAR 2021 のデータセット記述,タスク定義,評価プロトコル,結果要約について述べる。
- 参考スコア(独自算出の注目度): 28.439390836950025
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Scene video text spotting (SVTS) is a very important research topic because
of many real-life applications. However, only a little effort has put to
spotting scene video text, in contrast to massive studies of scene text
spotting in static images. Due to various environmental interferences like
motion blur, spotting scene video text becomes very challenging. To promote
this research area, this competition introduces a new challenge dataset
containing 129 video clips from 21 natural scenarios in full annotations. The
competition containts three tasks, that is, video text detection (Task 1),
video text tracking (Task 2) and end-to-end video text spotting (Task3). During
the competition period (opened on 1st March, 2021 and closed on 11th April,
2021), a total of 24 teams participated in the three proposed tasks with 46
valid submissions, respectively. This paper includes dataset descriptions, task
definitions, evaluation protocols and results summaries of the ICDAR 2021 on
SVTS competition. Thanks to the healthy number of teams as well as submissions,
we consider that the SVTS competition has been successfully held, drawing much
attention from the community and promoting the field research and its
development.
- Abstract(参考訳): シーンビデオテキストスポッティング(SVTS)は,多くの実環境応用のために非常に重要な研究課題である。
しかし、静的画像中のシーンテキストのスポッティングに関する大規模な研究とは対照的に、シーンビデオテキストのスポッティングにはわずかな努力しかかからない。
動きのぼやけのような様々な環境干渉のため、シーンビデオのテキストの発見は非常に困難になる。
この研究領域を促進するために、このコンペティションでは21の自然シナリオから129の動画クリップを含む新しいチャレンジデータセットがフルアノテーションで導入されている。
このコンペには、ビデオテキスト検出(task 1)、ビデオテキスト追跡(task2)、エンドツーエンドビデオテキストスポッティング(task3)という3つのタスクが含まれている。
大会期間(2021年3月1日開会、2021年4月11日閉会)には、計24チームがそれぞれ46名の応募者からなる3つの課題に参加した。
本稿では,SVTS コンペティションにおける ICDAR 2021 のデータセット記述,タスク定義,評価プロトコル,結果要約について述べる。
健全なチーム数と応募数のおかげで、svtsコンペティションは成功しており、コミュニティから多くの注目を集め、フィールドリサーチとその開発を推進していると考えています。
関連論文リスト
- AIM 2024 Challenge on Video Saliency Prediction: Methods and Results [105.09572982350532]
本稿では,AIM 2024におけるビデオ・サリエンシ予測の課題について概説する。
参加者の目標は、提供されたビデオシーケンスのセットに対して正確な精度マップを予測する方法を開発することであった。
論文 参考訳(メタデータ) (2024-09-23T08:59:22Z) - PVUW 2024 Challenge on Complex Video Understanding: Methods and Results [199.5593316907284]
我々は、MOSEデータセットに基づく複合ビデオオブジェクトトラックと、MeViSデータセットに基づくモーション表現ガイドビデオトラックの2つの新しいトラックを追加した。
2つの新しいトラックでは、挑戦的な要素を特徴とする追加のビデオとアノテーションを提供しています。
これらの新しいビデオ、文、アノテーションにより、より包括的で堅牢なビデオシーン理解の開発を促進することができる。
論文 参考訳(メタデータ) (2024-06-24T17:38:58Z) - DSText V2: A Comprehensive Video Text Spotting Dataset for Dense and
Small Text [46.177941541282756]
我々は,DSText V2というビデオテキスト読解ベンチマークを構築し,DenseとSmallテキスト読解の課題に焦点を当てた。
提案したデータセットは、以前のデータセットと比較すると、主に3つの新しい課題を含んでいる。
ビデオのぼやけや歪みと相まって、高頻度の小さなテキストは、さらなる課題をもたらすだろう。
論文 参考訳(メタデータ) (2023-11-29T09:13:27Z) - ICDAR 2023 Competition on Structured Text Extraction from Visually-Rich
Document Images [198.35937007558078]
大会は2022年12月30日に開かれ、2023年3月24日に閉幕した。
トラック1には35人の参加者と91人の有効な応募があり、トラック2には15人の参加者と26人の応募がある。
提案手法の性能によると, 複雑なシナリオやゼロショットシナリオにおいて, 期待される情報抽出性能にはまだ大きなギャップがあると考えられる。
論文 参考訳(メタデータ) (2023-06-05T22:20:52Z) - ICDAR 2023 Competition on Reading the Seal Title [58.866588777012744]
この領域での研究を促進するため、シールタイトル(ReST)を読むためのICDAR 2023コンペティションを組織した。
我々は1万の実際のシールデータからなるデータセットを構築し、最も一般的なシールのクラスをカバーし、すべてのシールタイトルテキストにテキストとテキストの内容をラベル付けした。
大会には、第1タスクの応募28件、第2タスクの応募25件を含む、学界や業界から53人の参加者が集まった。
論文 参考訳(メタデータ) (2023-04-24T10:01:41Z) - ICDAR 2023 Video Text Reading Competition for Dense and Small Text [61.138557702185274]
我々は,ビデオ中の高密度・小型のテキスト読解課題に焦点を当てた,ビデオテキスト読解ベンチマークDSTextを構築した。
提案したデータセットは、以前のデータセットと比較すると、主に3つの新しい課題を含んでいる。
提案したDSTextには、12のオープンシナリオから100のビデオクリップが含まれており、2つのタスク(例えば、ビデオテキストトラッキング(Task 1)と、エンドツーエンドのビデオテキストスポッティング(Task2)をサポートする。
論文 参考訳(メタデータ) (2023-04-10T04:20:34Z) - Sport Task: Fine Grained Action Detection and Classification of Table
Tennis Strokes from Videos for MediaEval 2022 [0.9894420655516565]
本課題は,スポーツビデオから微妙な動きを検出し,分類することである。
私たちは卓球の試合の記録に重点を置いている。
2021年以降、このタスクは、注釈のない未修正ビデオからのストローク検出にも挑戦している。
論文 参考訳(メタデータ) (2023-01-31T12:03:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。