論文の概要: Spatio-Temporal Handwriting Imitation
- arxiv url: http://arxiv.org/abs/2003.10593v2
- Date: Fri, 16 Apr 2021 17:09:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 09:09:14.940969
- Title: Spatio-Temporal Handwriting Imitation
- Title(参考訳): 時空間筆跡模倣
- Authors: Martin Mayr, Martin Stumpf, Anguelos Nicolaou, Mathias Seuret, Andreas
Maier, Vincent Christlein
- Abstract要約: プロセスを小さなサブタスクに分割することで、人間の視覚的に区別できない確率で、誰かの筆跡を模倣することができる。
また,作成した偽の筆跡から,典型的な筆跡識別システムも部分的には騙すことができることを示す。
- 参考スコア(独自算出の注目度): 11.54523121769666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most people think that their handwriting is unique and cannot be imitated by
machines, especially not using completely new content. Current cursive
handwriting synthesis is visually limited or needs user interaction. We show
that subdividing the process into smaller subtasks makes it possible to imitate
someone's handwriting with a high chance to be visually indistinguishable for
humans. Therefore, a given handwritten sample will be used as the target style.
This sample is transferred to an online sequence. Then, a method for online
handwriting synthesis is used to produce a new realistic-looking text primed
with the online input sequence. This new text is then rendered and
style-adapted to the input pen. We show the effectiveness of the pipeline by
generating in- and out-of-vocabulary handwritten samples that are validated in
a comprehensive user study. Additionally, we show that also a typical writer
identification system can partially be fooled by the created fake handwritings.
- Abstract(参考訳): ほとんどの人は、手書きはユニークで、特に全く新しいコンテンツを使用しない機械では模倣できないと考えている。
現在の筆跡合成は視覚的に制限されているか、ユーザインタラクションを必要とする。
プロセスを小さなサブタスクに分割することで、人間の視覚的に区別できない確率で、誰かの筆跡を模倣できることを示す。
したがって、所定の手書きのサンプルを対象のスタイルとして使用する。
このサンプルはオンラインシーケンスに転送されます。
そして、オンライン手書き合成法を用いて、オンライン入力シーケンスをプライマリとした、新しいリアルなテキストを生成する。
新しいテキストが描画され、入力ペンにスタイル適応される。
包括的ユーザスタディで検証された語彙内および語彙外手書きサンプルを生成することにより,パイプラインの有効性を示す。
また,著者識別システムは,作成した偽の筆跡を部分的に騙すことも可能であることを示す。
関連論文リスト
- CAPro: Webly Supervised Learning with Cross-Modality Aligned Prototypes [93.71909293023663]
クロスモダリティ・アライテッド・プロトタイプ(CAPro)は、視覚表現を正しい意味論で学習する統合コントラスト学習フレームワークである。
CAProは、新しい最先端のパフォーマンスを実現し、オープンセット認識に対する堅牢性を示す。
論文 参考訳(メタデータ) (2023-10-15T07:20:22Z) - Sampling and Ranking for Digital Ink Generation on a tight computational
budget [69.15275423815461]
トレーニングされたデジタルインク生成モデルの出力品質を最大化する方法について検討する。
我々は、デジタルインク領域におけるその種類に関する最初のアブレーション研究において、複数のサンプリングとランキング手法の効果を使用、比較する。
論文 参考訳(メタデータ) (2023-06-02T09:55:15Z) - Disentangling Writer and Character Styles for Handwriting Generation [8.33116145030684]
本稿では,2つの相補的コントラストを用いたSDT(style-disentangled Transformer)を用いて,参照サンプルのスタイル共通性を抽出する。
実験結果から,この2つの学習されたスタイル表現が,異なる周波数スケールで情報を提供することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-26T14:32:02Z) - Character-Aware Models Improve Visual Text Rendering [57.19915686282047]
現在の画像生成モデルは、十分に整形されたビジュアルテキストを生成するのに苦労している。
文字認識モデルは、新しい綴りタスクに大きな利益をもたらす。
われわれのモデルでは、ビジュアルスペルの精度は比較的高く、稀な単語の競合よりも30以上の精度が向上した。
論文 参考訳(メタデータ) (2022-12-20T18:59:23Z) - SLOGAN: Handwriting Style Synthesis for Arbitrary-Length and
Out-of-Vocabulary Text [35.83345711291558]
本稿では,任意の長文と語彙外文に対して,パラメータ化および制御可能な手書きスタイルを合成する手法を提案する。
我々は、容易に入手可能な印刷スタイルの画像を提供することで、テキストコンテンツを埋め込むことにより、コンテンツの多様性を柔軟に達成することができる。
本手法は,学習語彙に含まれない単語を,様々な新しいスタイルで合成することができる。
論文 参考訳(メタデータ) (2022-02-23T12:13:27Z) - Letter-level Online Writer Identification [86.13203975836556]
我々は文字レベルのオンラインライタIDという新たな問題に焦点をあてる。
主な課題は、しばしば異なるスタイルで手紙を書くことである。
我々はこの問題をオンライン書記スタイルのばらつき(Var-O-Styles)と呼ぶ。
論文 参考訳(メタデータ) (2021-12-06T07:21:53Z) - Data Incubation -- Synthesizing Missing Data for Handwriting Recognition [16.62493361545184]
コンテンツとスタイルの制御を通じて、より優れた認識器を構築するために、生成モデルがどのように使用できるかを示す。
データ合成を最適化するためにこのフレームワークを使用し、実際のデータのみに基づいてトレーニングされたモデルに対して、手書き認識を大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-10-13T21:28:18Z) - SmartPatch: Improving Handwritten Word Imitation with Patch
Discriminators [67.54204685189255]
本稿では,現在の最先端手法の性能を向上させる新手法であるSmartPatchを提案する。
我々は、よく知られたパッチ損失と、平行訓練された手書きテキスト認識システムから収集された情報を組み合わせる。
これにより、より強化された局所識別器が実現し、より現実的で高品質な手書き文字が生成される。
論文 参考訳(メタデータ) (2021-05-21T18:34:21Z) - DeepWriteSYN: On-Line Handwriting Synthesis via Deep Short-Term
Representations [14.498981800711302]
DeepWriteSYNは、新しいオンライン手書き方式である。
与えられた人口や被写体内の自然な変動に対応する、与えられた手書き構造の現実的な手書き変化を生成することができる。
論文 参考訳(メタデータ) (2020-09-14T10:17:55Z) - Enabling Language Models to Fill in the Blanks [81.59381915581892]
文書中の任意の位置にあるテキストの欠落を予測するタスクである,テキストを埋め込むためのシンプルなアプローチを提案する。
我々は、人工的にマスキングされたテキストと隠蔽されたテキストの連結を含むシーケンスに基づいて、オフザシェルフ言語モデル(またはファインチューン)を訓練する。
言語モデリングにより,この手法により,3つの分野(短編,科学的な要約,歌詞)において,LMが文全体を効果的に埋め込むことができることを示す。
論文 参考訳(メタデータ) (2020-05-11T18:00:03Z) - GANwriting: Content-Conditioned Generation of Styled Handwritten Word
Images [10.183347908690504]
我々は、リアルで多様な人工的に書かれた手書きの単語を作ることに一歩近づいた。
書体スタイルの特徴とテキストコンテンツの両方で生成過程を条件付けることにより,信頼できる手書きの単語画像を生成する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-05T12:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。