論文の概要: SmartPatch: Improving Handwritten Word Imitation with Patch
Discriminators
- arxiv url: http://arxiv.org/abs/2105.10528v1
- Date: Fri, 21 May 2021 18:34:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 15:18:35.644478
- Title: SmartPatch: Improving Handwritten Word Imitation with Patch
Discriminators
- Title(参考訳): smartpatch:patch discriminatorによる手書き単語模倣の改善
- Authors: Alexander Mattick, Martin Mayr, Mathias Seuret, Andreas Maier, Vincent
Christlein
- Abstract要約: 本稿では,現在の最先端手法の性能を向上させる新手法であるSmartPatchを提案する。
我々は、よく知られたパッチ損失と、平行訓練された手書きテキスト認識システムから収集された情報を組み合わせる。
これにより、より強化された局所識別器が実現し、より現実的で高品質な手書き文字が生成される。
- 参考スコア(独自算出の注目度): 67.54204685189255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As of recent generative adversarial networks have allowed for big leaps in
the realism of generated images in diverse domains, not the least of which
being handwritten text generation. The generation of realistic-looking
hand-written text is important because it can be used for data augmentation in
handwritten text recognition (HTR) systems or human-computer interaction. We
propose SmartPatch, a new technique increasing the performance of current
state-of-the-art methods by augmenting the training feedback with a tailored
solution to mitigate pen-level artifacts. We combine the well-known patch loss
with information gathered from the parallel trained handwritten text
recognition system and the separate characters of the word. This leads to a
more enhanced local discriminator and results in more realistic and
higher-quality generated handwritten words.
- Abstract(参考訳): 近年のジェネレーティブ・逆境ネットワークは様々な領域で生成された画像のリアリズムを大きく飛躍させてきたが、その多くが手書きのテキスト生成ではない。
現実的な手書き文字の生成は、手書き文字認識(HTR)システムや人間とコンピュータの相互作用において、データ拡張に使用できるため重要である。
ペンレベルのアーティファクトを軽減するために、トレーニングフィードバックをカスタマイズしたソリューションで強化することにより、現在の最先端のメソッドのパフォーマンスを向上させる新しい技術であるsmartpatchを提案する。
我々は、よく知られたパッチ損失と、平行訓練された手書きテキスト認識システムから収集された情報と、単語の別文字とを組み合わせる。
これにより、局所的な判別器がより強化され、よりリアルで高品質な手書き語が生成される。
関連論文リスト
- Learning Robust Named Entity Recognizers From Noisy Data With Retrieval Augmentation [67.89838237013078]
名前付きエンティティ認識(NER)モデルは、しばしばノイズの多い入力に悩まされる。
ノイズの多いテキストとそのNERラベルのみを利用できる、より現実的な設定を提案する。
我々は、推論中にテキストを取得することなく、堅牢なNERを改善するマルチビュートレーニングフレームワークを採用している。
論文 参考訳(メタデータ) (2024-07-26T07:30:41Z) - Efficiently Leveraging Linguistic Priors for Scene Text Spotting [63.22351047545888]
本稿では,大規模テキストコーパスから言語知識を活用する手法を提案する。
シーンテキストデータセットとよく一致したテキスト分布を生成し、ドメイン内の微調整の必要性を取り除く。
実験結果から,本手法は認識精度を向上するだけでなく,単語のより正確な局所化を可能にすることが示された。
論文 参考訳(メタデータ) (2024-02-27T01:57:09Z) - Offline Detection of Misspelled Handwritten Words by Convolving
Recognition Model Features with Text Labels [0.0]
テキストに対して手書き画像を比較する作業を紹介する。
我々のモデルの分類ヘッドは、最先端の生成逆数ネットワークを用いて生成された合成データに基づいて訓練されている。
このような大規模なパフォーマンス向上は、ヒューマン・イン・ザ・ループの自動化を利用したアプリケーションの生産性を大幅に向上させる可能性がある。
論文 参考訳(メタデータ) (2023-09-18T21:13:42Z) - Reading and Writing: Discriminative and Generative Modeling for
Self-Supervised Text Recognition [101.60244147302197]
テキスト画像の識別と生成を学習するために,コントラスト学習とマスク付き画像モデリングを導入する。
本手法は,不規則なシーンテキスト認識データセットにおいて,従来の自己教師付きテキスト認識手法を10.2%~20.2%向上させる。
提案したテキスト認識器は,11のベンチマークで平均5.3%の精度で従来のテキスト認識手法を上回り,モデルサイズが類似している。
論文 参考訳(メタデータ) (2022-07-01T03:50:26Z) - Content and Style Aware Generation of Text-line Images for Handwriting
Recognition [4.301658883577544]
視覚的外観とテキストコンテンツの両方を条件とした手書きテキストライン画像の生成法を提案する。
本手法では,多彩な手書きスタイルの長いテキストラインサンプルを作成できる。
論文 参考訳(メタデータ) (2022-04-12T05:52:03Z) - Make-A-Scene: Scene-Based Text-to-Image Generation with Human Priors [58.71128866226768]
近年のテキスト・ツー・イメージ生成手法は、生成した画像の忠実度とテキスト関連性を漸進的に改善している。
i)シーンの形式でテキストを補完する単純な制御機構を実現することで,これらのギャップに対処する新しいテキスト・ツー・イメージ手法を提案する。
このモデルにより,512×512ピクセルの解像度で高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-03-24T15:44:50Z) - Handwritten text generation and strikethrough characters augmentation [0.04893345190925178]
本稿では,Resnet-BiLSTM-CTCネットワークを用いて,単語誤り率(WER)と文字誤り率(CER)を大幅に低減する2つのデータ拡張手法を提案する。
印刷テキスト(StackMix)に基づくストライクテキスト(HandWritten Blots)と手書きテキスト生成をシミュレートする新しい拡張手法を適用する。
10個の手書きテキストデータセットの実験では、HandWritten Blots拡張とStackMixがHTRモデルの品質を大幅に改善した。
論文 参考訳(メタデータ) (2021-12-14T13:41:10Z) - Enhance to Read Better: An Improved Generative Adversarial Network for
Handwritten Document Image Enhancement [1.7491858164568674]
本稿では,GAN(Generative Adversarial Networks)に基づくエンド・ツー・エンドアーキテクチャを提案する。
私たちの知る限りでは、これは手書き文書をバイナライズしながらテキスト情報を使用する最初の作業である。
H-DIBCO 2018の課題では、人工的に劣化したラテン手書き画像でトレーニング済みのモデルを微調整した後、アートの状況よりも優れています。
論文 参考訳(メタデータ) (2021-05-26T17:44:45Z) - Adversarial Watermarking Transformer: Towards Tracing Text Provenance
with Data Hiding [80.3811072650087]
自然言語の透かしを防御として研究し,テキストの出所の発見と追跡に役立てる。
本稿では,適応型透かし変換器(AWT)とエンコーダ・デコーダ・デコーダを併用した対向型透かし変換器(AWT)について述べる。
AWTは、テキストにデータを隠蔽する最初のエンドツーエンドモデルである。
論文 参考訳(メタデータ) (2020-09-07T11:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。