論文の概要: Synthetic-to-Real Unsupervised Domain Adaptation for Scene Text
Detection in the Wild
- arxiv url: http://arxiv.org/abs/2009.01766v1
- Date: Thu, 3 Sep 2020 16:16:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 07:00:09.213054
- Title: Synthetic-to-Real Unsupervised Domain Adaptation for Scene Text
Detection in the Wild
- Title(参考訳): 野生におけるシーンテキスト検出のための非教師なしドメイン適応
- Authors: Weijia Wu and Ning Lu and Enze Xie
- Abstract要約: シーンテキスト検出のための合成領域適応手法を提案する。
ドメイン適応シーンテキスト検出のためのテキスト自己学習(TST)法と逆テキストインスタンスアライメント(ATA)を導入する。
その結果,提案手法の有効性を最大10%改善した。
- 参考スコア(独自算出の注目度): 11.045516338817132
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning-based scene text detection can achieve preferable performance,
powered with sufficient labeled training data. However, manual labeling is time
consuming and laborious. At the extreme, the corresponding annotated data are
unavailable. Exploiting synthetic data is a very promising solution except for
domain distribution mismatches between synthetic datasets and real datasets. To
address the severe domain distribution mismatch, we propose a synthetic-to-real
domain adaptation method for scene text detection, which transfers knowledge
from synthetic data (source domain) to real data (target domain). In this
paper, a text self-training (TST) method and adversarial text instance
alignment (ATA) for domain adaptive scene text detection are introduced. ATA
helps the network learn domain-invariant features by training a domain
classifier in an adversarial manner. TST diminishes the adverse effects of
false positives~(FPs) and false negatives~(FNs) from inaccurate pseudo-labels.
Two components have positive effects on improving the performance of scene text
detectors when adapting from synthetic-to-real scenes. We evaluate the proposed
method by transferring from SynthText, VISD to ICDAR2015, ICDAR2013. The
results demonstrate the effectiveness of the proposed method with up to 10%
improvement, which has important exploration significance for domain adaptive
scene text detection. Code is available at
https://github.com/weijiawu/SyntoReal_STD
- Abstract(参考訳): ディープラーニングに基づくシーンテキスト検出は、十分なラベル付きトレーニングデータを用いて、好ましいパフォーマンスを実現することができる。
しかし、手動ラベリングは時間と労力を要する。
極端に、対応する注釈付きデータは利用できない。
合成データの利用は、合成データセットと実際のデータセットの間のドメイン分散ミスマッチを除いて、非常に有望なソリューションである。
そこで本研究では,合成データ(ソースドメイン)から実データ(ターゲットドメイン)へ知識を伝達するシーンテキスト検出のための,合成から現実へのドメイン適応手法を提案する。
本稿では,ドメイン適応型シーンテキスト検出のためのテキスト自己学習(TST)手法と逆テキストインスタンスアライメント(ATA)を提案する。
ATAは、ドメイン分類器を逆向きに訓練することで、ネットワークがドメイン不変の機能を学ぶのに役立つ。
TSTは偽陽性(FPs)と偽陰性(FNs)の悪影響を不正確な偽ラベルから減少させる。
2つのコンポーネントは、合成シーンから実シーンへの適応時のシーンテキスト検出の性能向上に肯定的な影響を及ぼす。
提案手法をSynthText, VISD から ICDAR2015, ICDAR2013 に転送することで評価した。
提案手法の有効性を最大10%改善し,領域適応型シーンテキスト検出において重要な探索的意義を有することを示す。
コードはhttps://github.com/weijiawu/syntoreal_stdで入手できる。
関連論文リスト
- Toward Real Text Manipulation Detection: New Dataset and New Solution [58.557504531896704]
プロフェッショナルなテキスト操作に関連する高コストは、現実世界のデータセットの可用性を制限する。
本稿では,14,250枚のテキスト画像を含むリアルテキスト操作データセットを提案する。
我々のコントリビューションは、実世界のテキスト改ざん検出の進歩を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-12T02:10:16Z) - Bridging Synthetic and Real Worlds for Pre-training Scene Text Detectors [54.80516786370663]
FreeRealは、SDと実際のデータの相補的な強みを可能にする、実際のドメイン整合型事前トレーニングパラダイムである。
GlyphMixは、合成画像を落書きのようなユニットとして実際の画像に埋め込む。
FreeRealは、4つの公開データセットで、既存の事前トレーニングメソッドよりも大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2023-12-08T15:10:55Z) - ParGANDA: Making Synthetic Pedestrians A Reality For Object Detection [2.7648976108201815]
本稿では,GAN(Generative Adversarial Network)を用いて,実データと合成データのギャップを埋めることを提案する。
我々のアプローチは、視覚的に可視なサンプルを生成するだけでなく、実際のドメインのラベルも必要としない。
論文 参考訳(メタデータ) (2023-07-21T05:26:32Z) - Unsupervised Domain Adaptation for Sparse Retrieval by Filling
Vocabulary and Word Frequency Gaps [12.573927420408365]
事前訓練された言語モデルを用いたIRモデルはBM25のような語彙的アプローチよりも大幅に優れていた。
本稿では,語彙と単語周波数のギャップを埋めることによる教師なし領域適応手法を提案する。
提案手法は,現在最先端の領域適応法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-11-08T03:58:26Z) - UNITS: Unsupervised Intermediate Training Stage for Scene Text Detection [16.925048424113463]
我々は、textbfUNsupervised textbfIntermediate textbfTraining textbfStage (UNITS)を導入したシーンテキスト検出のための新しいトレーニングパラダイムを提案する。
UNITSは実世界のデータへのバッファパスを構築し、事前学習段階と微調整段階の間のギャップを軽減することができる。
教師なしの方法で現実世界のデータから情報を知覚するために、さらに3つのトレーニング戦略が検討されている。
論文 参考訳(メタデータ) (2022-05-10T05:34:58Z) - Unsupervised Domain Adaptive Salient Object Detection Through
Uncertainty-Aware Pseudo-Label Learning [104.00026716576546]
そこで本研究では,手動のアノテーションを使わずに,自然に高いピクセルラベル品質を有する合成・クリーンなラベルから,サリエンスを学習することを提案する。
提案手法は,複数のベンチマークデータセット上で,既存の最先端の深層教師なしSOD法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-26T16:03:55Z) - Content Disentanglement for Semantically Consistent
Synthetic-to-RealDomain Adaptation in Urban Traffic Scenes [39.38387505091648]
合成データ生成は、自動運転における新しい交通シナリオを生成する魅力的なアプローチです。
合成データだけで訓練されたディープラーニング技術は、実際のデータでテストされたときに劇的なパフォーマンス低下に遭遇します。
本稿では,合成データと実データの間で意味的に一貫性のあるドメイン適応を実現する,教師なしのエンドツーエンドドメイン適応ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-05-18T17:42:26Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - A Free Lunch for Unsupervised Domain Adaptive Object Detection without
Source Data [69.091485888121]
教師なしドメイン適応(unsupervised domain adaptation) ソースとターゲットのドメインデータは自由に利用でき、通常、ドメイン間のギャップを減らすために一緒に訓練される。
ノイズの多いラベルで学習する問題にモデル化することで,ソースデータのないドメイン適応オブジェクト検出(SFOD)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-10T01:42:35Z) - Text Recognition -- Real World Data and Where to Find Them [36.10220484561196]
本稿では,弱い注釈付き画像を利用してテキスト抽出パイプラインを改善する手法を提案する。
このアプローチでは、任意のエンドツーエンドのテキスト認識システムを使用して、テキスト領域の提案と、おそらく誤った書き起こしを取得する。
シーンテキストのほとんどエラーのないローカライズされたインスタンスを生成し、これが"擬似基底真理"(PGT)として扱う。
論文 参考訳(メタデータ) (2020-07-06T22:23:27Z) - Text Recognition in Real Scenarios with a Few Labeled Samples [55.07859517380136]
Scene Text Recognition (STR) はコンピュータビジョン分野におけるホットな研究テーマである。
本稿では,数ショットの逆数列領域適応 (FASDA) を用いて構築シーケンスを適応する手法を提案する。
我々のアプローチは、ソースドメインとターゲットドメインの間の文字レベルの混乱を最大化することができる。
論文 参考訳(メタデータ) (2020-06-22T13:03:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。