論文の概要: Scene Text Detection with Scribble Lines
- arxiv url: http://arxiv.org/abs/2012.05030v2
- Date: Thu, 10 Dec 2020 13:35:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 02:02:19.026294
- Title: Scene Text Detection with Scribble Lines
- Title(参考訳): スクリブルラインを用いたシーンテキスト検出
- Authors: Wenqing Zhang, Yang Qiu, Minghui Liao, Rui Zhang, Xiaolin Wei, Xiang
Bai
- Abstract要約: テキスト検出のための多角形の代わりにスクリブル線でテキストをアノテートすることを提案する。
さまざまな形状のテキストの一般的なラベリング方法であり、ラベリングコストが低くなります。
実験の結果,提案手法は弱ラベル法と元のポリゴン系ラベリング法との間の性能ギャップを橋渡しすることを示した。
- 参考スコア(独自算出の注目度): 59.698806258671105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scene text detection, which is one of the most popular topics in both
academia and industry, can achieve remarkable performance with sufficient
training data. However, the annotation costs of scene text detection are huge
with traditional labeling methods due to the various shapes of texts. Thus, it
is practical and insightful to study simpler labeling methods without harming
the detection performance. In this paper, we propose to annotate the texts by
scribble lines instead of polygons for text detection. It is a general labeling
method for texts with various shapes and requires low labeling costs.
Furthermore, a weakly-supervised scene text detection framework is proposed to
use the scribble lines for text detection. The experiments on several
benchmarks show that the proposed method bridges the performance gap between
the weakly labeling method and the original polygon-based labeling methods,
with even better performance. We will release the weak annotations of the
benchmarks in our experiments and hope it will benefit the field of scene text
detection to achieve better performance with simpler annotations.
- Abstract(参考訳): アカデミアと産業の両方でもっとも人気のあるトピックの一つであるシーンテキスト検出は、十分なトレーニングデータで素晴らしいパフォーマンスを達成できます。
しかし、シーンテキスト検出のアノテーションコストは、テキストの様々な形状のために従来のラベリング手法と大きく異なる。
したがって、検出性能を損なうことなく、より単純なラベル付け手法を研究することは実用的で洞察に富む。
本稿では,テキスト検出のためのポリゴンの代わりに,テキストをスクリブルラインでアノテートすることを提案する。
様々な形状のテキストの一般的なラベリング手法であり、低ラベリングコストを必要とする。
さらに,テキスト検出にスクリブルラインを使用するために,弱教師付きシーンテキスト検出フレームワークを提案する。
いくつかのベンチマーク実験により,提案手法は弱いラベル付け法と元のポリゴンラベリング法の間の性能ギャップを橋渡しし,性能が向上することを示した。
我々の実験でベンチマークの弱いアノテーションをリリースし、シンプルなアノテーションでより良いパフォーマンスを達成するためにシーンテキスト検出の分野に利益をもたらすことを期待します。
関連論文リスト
- EAFormer: Scene Text Segmentation with Edge-Aware Transformers [56.15069996649572]
シーンテキストセグメンテーションは、通常、生成モデルがテキストの編集や削除を支援するために使用されるシーンイメージからテキストを抽出することを目的としている。
本稿では,特にテキストのエッジにおいて,テキストをより正確にセグメント化するためのエッジ対応変換器EAFormerを提案する。
論文 参考訳(メタデータ) (2024-07-24T06:00:33Z) - Efficiently Leveraging Linguistic Priors for Scene Text Spotting [63.22351047545888]
本稿では,大規模テキストコーパスから言語知識を活用する手法を提案する。
シーンテキストデータセットとよく一致したテキスト分布を生成し、ドメイン内の微調整の必要性を取り除く。
実験結果から,本手法は認識精度を向上するだけでなく,単語のより正確な局所化を可能にすることが示された。
論文 参考訳(メタデータ) (2024-02-27T01:57:09Z) - Enhancing Scene Text Detectors with Realistic Text Image Synthesis Using
Diffusion Models [63.99110667987318]
DiffTextは、前景のテキストと背景の本質的な特徴をシームレスにブレンドするパイプラインです。
テキストインスタンスが少なくなると、生成したテキストイメージはテキスト検出を支援する他の合成データを一貫して上回ります。
論文 参考訳(メタデータ) (2023-11-28T06:51:28Z) - DPText-DETR: Towards Better Scene Text Detection with Dynamic Points in
Transformer [94.35116535588332]
ポリゴン点やベジエ曲線制御点を予測してテキストをローカライズするトランスフォーマーベースの手法は、シーンテキストの検出で非常に人気がある。
しかし、使用点ラベル形式は、トランスフォーマーモデルの堅牢性に影響を与える人間の読み順を意味する。
本稿では,DPText-DETRを提案する。これはクエリとしてポイント座標を直接使用し,デコーダ層間で動的に更新する。
論文 参考訳(メタデータ) (2022-07-10T15:45:16Z) - DEER: Detection-agnostic End-to-End Recognizer for Scene Text Spotting [11.705454066278898]
本稿では,新しい検出非依存のエンド・ツー・エンド認識フレームワークDEERを提案する。
提案手法は,検出モジュールと認識モジュール間の密接な依存関係を低減する。
通常のテキストスポッティングベンチマークと任意の形のテキストスポッティングベンチマークで競合する結果を得る。
論文 参考訳(メタデータ) (2022-03-10T02:41:05Z) - Towards Weakly-Supervised Text Spotting using a Multi-Task Transformer [21.479222207347238]
テキストスポッティングのための変換器ベースのアプローチであるTextTranSpotter(TTS)を紹介する。
TTSは、完全に管理された設定と弱い設定の両方で訓練される。
TextTranSpotterは、完全に教師された方法でトレーニングされ、複数のベンチマークで最先端の結果を表示する。
論文 参考訳(メタデータ) (2022-02-11T08:50:09Z) - SPTS: Single-Point Text Spotting [128.52900104146028]
トレーニングシーンのテキストスポッティングモデルは,インスタンスごとの単一点の極めて低コストなアノテーションによって実現可能であることを示す。
本稿では,シーンテキストスポッティングをシーケンス予測タスクとするエンドツーエンドのシーンテキストスポッティング手法を提案する。
論文 参考訳(メタデータ) (2021-12-15T06:44:21Z) - Which and Where to Focus: A Simple yet Accurate Framework for
Arbitrary-Shaped Nearby Text Detection in Scene Images [8.180563824325086]
そこで本研究では,任意の形状の近接するシーンテキスト検出のための簡易かつ効果的な手法を提案する。
OMTS(One-to-Many Training Scheme)は、混乱を排除し、提案がより適切な基盤構造を学べるように設計されている。
また,提案提案に対してより効果的な機能を利用するために,提案機能注意モジュール(PFAM)を提案する。
論文 参考訳(メタデータ) (2021-09-08T06:25:37Z) - Weakly-Supervised Arbitrary-Shaped Text Detection with
Expectation-Maximization Algorithm [35.0126313032923]
弱教師付き任意字型テキスト検出法について, 各種弱監督形式を組み合わせるために検討した。
本稿では,予測最大化(EM)に基づく弱教師付き学習フレームワークを提案する。
提案手法は,3つのベンチマーク上での最先端手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2020-12-01T11:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。