論文の概要: AT-ST: Self-Training Adaptation Strategy for OCR in Domains with Limited
Transcriptions
- arxiv url: http://arxiv.org/abs/2104.13037v1
- Date: Tue, 27 Apr 2021 08:20:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 13:29:04.648457
- Title: AT-ST: Self-Training Adaptation Strategy for OCR in Domains with Limited
Transcriptions
- Title(参考訳): AT-ST:限定転写領域におけるOCRの自己学習適応戦略
- Authors: Martin Ki\v{s}\v{s} and Karel Bene\v{s} and Michal Hradi\v{s}
- Abstract要約: セルフトレーニングにより、手書きデータの文字誤り率が最大55%、印刷データでは最大38%の低減を実現しました。
マスキング拡張自体はエラー率を約10%削減し、手書きの難しいデータの場合、その効果はよりよく発音される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses text recognition for domains with limited manual
annotations by a simple self-training strategy. Our approach should reduce
human annotation effort when target domain data is plentiful, such as when
transcribing a collection of single person's correspondence or a large
manuscript. We propose to train a seed system on large scale data from related
domains mixed with available annotated data from the target domain. The seed
system transcribes the unannotated data from the target domain which is then
used to train a better system. We study several confidence measures and
eventually decide to use the posterior probability of a transcription for data
selection. Additionally, we propose to augment the data using an aggressive
masking scheme. By self-training, we achieve up to 55 % reduction in character
error rate for handwritten data and up to 38 % on printed data. The masking
augmentation itself reduces the error rate by about 10 % and its effect is
better pronounced in case of difficult handwritten data.
- Abstract(参考訳): 本稿では,手動アノテーションが限定されたドメインのテキスト認識について,簡単な自己学習戦略を用いて述べる。
提案手法は,個人文の集合や大きな原稿を翻訳する場合など,対象ドメインデータが豊富である場合に,人間のアノテーションの労力を削減すべきである。
対象ドメインから利用可能な注釈付きデータと混在する関連ドメインから大規模データに基づいてシードシステムを訓練することを提案する。
シードシステムは、ターゲットドメインから注釈のないデータを書き起こし、より良いシステムをトレーニングするために使用される。
信頼度尺度をいくつか検討し,データ選択に書き起こしの後方確率を用いることを決定した。
また,アグレッシブマスキング方式を用いてデータを拡張することを提案する。
自己学習により,手書きデータの文字誤り率を最大55 %,印刷データで最大38 %削減できる。
マスキング拡張自体はエラー率を約10%削減し、手書きの難しいデータの場合、その効果はよりよく発音される。
関連論文リスト
- Informative Data Mining for One-Shot Cross-Domain Semantic Segmentation [84.82153655786183]
Informative Data Mining (IDM) と呼ばれる新しいフレームワークを提案し、セマンティックセグメンテーションのための効率的なワンショットドメイン適応を実現する。
IDMは、最も情報性の高いサンプルを特定するために不確実性に基づく選択基準を提供し、迅速に適応し、冗長なトレーニングを減らす。
提案手法は,GTA5/SYNTHIAからCityscapesへの適応タスクにおいて,既存の手法より優れ,56.7%/55.4%の最先端のワンショット性能を実現している。
論文 参考訳(メタデータ) (2023-09-25T15:56:01Z) - Noisy Self-Training with Data Augmentations for Offensive and Hate
Speech Detection Tasks [3.703767478524629]
ノイズ」自己学習アプローチには、予測整合性を確保し、敵攻撃に対する堅牢性を高めるために、データ拡張技術が組み込まれている。
2つの攻撃的/ヘイト音声データセットについて実験を行い、(i)自己学習はモデルのサイズに関わらず一貫して性能を向上し、両方のデータセットで最大1.5%F1マクロとなり、(ii)テキストデータ拡張によるノイズの多い自己学習は、同様の設定でうまく適用されているにもかかわらず、デフォルトの手法と比較して、バックトランスレーションのような最先端の手法であっても、攻撃的およびヘイト音声ドメインのパフォーマンスを低下させることを示した。
論文 参考訳(メタデータ) (2023-07-31T12:35:54Z) - Finetuning Is a Surprisingly Effective Domain Adaptation Baseline in
Handwriting Recognition [0.0]
データ拡張による微調整は、手書き認識のために訓練されたニューラルネットワークの場合、驚くほどうまく機能する。
大規模な実世界のデータセットでは、ファインタニングにより、平均的なCER改善が25パーセント、新しいライターが16行、256行が50%となった。
論文 参考訳(メタデータ) (2023-02-13T12:18:58Z) - Can You Label Less by Using Out-of-Domain Data? Active & Transfer
Learning with Few-shot Instructions [58.69255121795761]
そこで本研究では, 微調整を必要としない, アクティブトランスファーファウショットインストラクション (ATF) アプローチを提案する。
ATFは、事前訓練された言語モデル(PLM)の内部言語知識を活用し、情報の伝達を容易にする。
アクティブラーニングによる少数の対象ドメインサンプルのアノテーションは、転送に有用であるが、アノテーションの取り組みによって影響は減少する。
論文 参考訳(メタデータ) (2022-11-21T19:03:31Z) - AdaTriplet-RA: Domain Matching via Adaptive Triplet and Reinforced
Attention for Unsupervised Domain Adaptation [15.905869933337101]
教師なしドメイン適応(Unsupervised Domain Adaption、UDA)は、ソースドメインのデータとアノテーションが利用できるが、トレーニング中にラベル付けされていないターゲットデータにのみアクセスできるトランスファー学習タスクである。
本稿では、ドメイン間サンプルマッチング方式を用いて、教師なしドメイン適応タスクを改善することを提案する。
ドメイン間サンプルに合わせるために,広く利用され,堅牢なTriplet損失を適用した。
トレーニング中に発生する不正確な擬似ラベルの破滅的効果を低減するため,信頼度の高い擬似ラベルを自動的に選択し,段階的に改良する新しい不確実性測定法を提案する。
論文 参考訳(メタデータ) (2022-11-16T13:04:24Z) - Bi-level Alignment for Cross-Domain Crowd Counting [113.78303285148041]
現在の手法は、補助的なタスクを訓練したり、高価な粗大な見積もりを適用したりするための外部データに依存している。
そこで我々は, 簡易かつ効率的に適用可能な, 逆学習に基づく新しい手法を開発した。
実世界の5つのクラウドカウントベンチマークに対するアプローチを評価し、既存のアプローチを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-05-12T02:23:25Z) - Preventing Author Profiling through Zero-Shot Multilingual
Back-Translation [15.871735427038386]
多言語バックトランスレーションによる著者プロファイリングのリスクを効果的に低減する,シンプルなゼロショット方式を提案する。
自動評価と人的評価の両方の結果から,本手法が全体の性能を最高のものにすることが示された。
私たちは、ダウンストリームタスクでオリジナルのユーティリティの95%を保ちながら、性別と人種の敵対的な予測を最大22%まで下げることができます。
論文 参考訳(メタデータ) (2021-09-19T14:36:22Z) - On Addressing Practical Challenges for RNN-Transduce [72.72132048437751]
オーディオデータを収集することなく、よく訓練されたRNN-Tモデルを新しいドメインに適応します。
復号時に計算された複数の特徴を利用して単語レベルの信頼度を求める。
提案手法では,平均で50ms以下の単語のタイミング差が得られる。
論文 参考訳(メタデータ) (2021-04-27T23:31:43Z) - Partially-Aligned Data-to-Text Generation with Distant Supervision [69.15410325679635]
我々はPADTG(Partially-Aligned Data-to-Text Generation)と呼ばれる新しい生成タスクを提案する。
自動的にアノテートされたデータをトレーニングに利用し、アプリケーションドメインを大幅に拡張するため、より実用的です。
我々のフレームワークは、全てのベースラインモデルより優れており、部分整合データの利用の可能性を検証する。
論文 参考訳(メタデータ) (2020-10-03T03:18:52Z) - Unsupervised Intra-domain Adaptation for Semantic Segmentation through
Self-Supervision [73.76277367528657]
畳み込みニューラルネットワークに基づくアプローチは、セマンティックセグメンテーションにおいて顕著な進歩を遂げた。
この制限に対処するために、グラフィックエンジンから生成された注釈付きデータを使用してセグメンテーションモデルをトレーニングする。
ドメイン間およびドメイン間ギャップを最小化する2段階の自己教師付きドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2020-04-16T15:24:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。