論文の概要: DSS: Synthesizing long Digital Ink using Data augmentation, Style
encoding and Split generation
- arxiv url: http://arxiv.org/abs/2311.17786v1
- Date: Wed, 29 Nov 2023 16:33:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 20:29:34.468229
- Title: DSS: Synthesizing long Digital Ink using Data augmentation, Style
encoding and Split generation
- Title(参考訳): DSS:データ拡張、スタイルエンコーディング、分割生成による長いデジタルインクの合成
- Authors: Aleksandr Timofeev, Anastasiia Fadeeva, Andrei Afonin, Claudiu Musat,
Andrii Maksai
- Abstract要約: このタスクでよく使われるモデルは、長文データへの一般化に失敗することを示す。
これらの手法は対照的な学習技法を用いており、特に筆跡領域に特化している。
- 参考スコア(独自算出の注目度): 47.90135553071684
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As text generative models can give increasingly long answers, we tackle the
problem of synthesizing long text in digital ink. We show that the commonly
used models for this task fail to generalize to long-form data and how this
problem can be solved by augmenting the training data, changing the model
architecture and the inference procedure. These methods use contrastive
learning technique and are tailored specifically for the handwriting domain.
They can be applied to any encoder-decoder model that works with digital ink.
We demonstrate that our method reduces the character error rate on long-form
English data by half compared to baseline RNN and by 16% compared to the
previous approach that aims at addressing the same problem. We show that all
three parts of the method improve recognizability of generated inks. In
addition, we evaluate synthesized data in a human study and find that people
perceive most of generated data as real.
- Abstract(参考訳): テキスト生成モデルは、より長い回答を与えることができるため、長いテキストをデジタルインクで合成する問題に取り組む。
このタスクでよく使われるモデルは、長文データへの一般化に失敗し、トレーニングデータを増やし、モデルアーキテクチャと推論手順を変更することで、どのようにこの問題を解決できるかを示す。
これらの方法は対照的な学習技術を使用し、筆跡領域に特化している。
デジタルインクで動作する任意のエンコーダデコーダモデルに適用することができる。
提案手法は,ベースラインRNNに比べて長文英語データの文字誤り率を半減し,同じ問題に対処する従来の手法に比べて16%削減することを示した。
提案手法の3つの部分が生成したインクの認識性を向上することを示す。
さらに,人間の研究における合成データの評価を行い,生成データの大半を現実と認識していることが分かった。
関連論文リスト
- Arbitrary-Length Generalization for Addition in a Tiny Transformer [55.2480439325792]
本稿では,トランスフォーマーモデルを用いて,未知の桁数に対する2桁数の追加を一般化する学習手法を提案する。
提案手法では, 右から左へ処理を行う自己回帰生成手法を用いて, 多数の値を追加するための共通手動手法を模倣する。
論文 参考訳(メタデータ) (2024-05-31T03:01:16Z) - InkSight: Offline-to-Online Handwriting Conversion by Learning to Read
and Write [7.827729986700937]
InkSightは、物理的なメモ取り者が自分の仕事(オフラインの筆跡)をデジタルのインク(オンラインの筆跡)に変換するのを助ける
当社のアプローチでは、事前の読み書きと組み合わせて、大量のペアのサンプルがない場合にモデルをトレーニングすることが可能です。
人間の評価では,HierTextデータセット上で得られたサンプルの87%が,入力画像の有効なトレースとして検討されている。
論文 参考訳(メタデータ) (2024-02-08T16:41:41Z) - Deep Learning-Driven Approach for Handwritten Chinese Character Classification [0.0]
手書き文字認識は、機械学習研究者にとって難しい問題である。
多数のユニークな文字クラスが存在するため、ロジカルスクリプトや中韓文字シーケンスのようなデータによっては、HCR問題に新たな複雑さをもたらす。
本稿では、モデルアーキテクチャ、データ前処理ステップ、設計手順のテストを導入し、詳細な文字画像分類のための高度にスケーラブルなアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-30T15:29:32Z) - GEC-DePenD: Non-Autoregressive Grammatical Error Correction with
Decoupled Permutation and Decoding [52.14832976759585]
文法的誤り訂正(GEC)は、通常自己回帰的なシーケンス・ツー・シーケンスモデルで解決される重要なNLPタスクである。
本稿では, アーキテクチャを置換ネットワークに分離する, GEC に対する非自己回帰的アプローチを提案する。
GECの既知の非自己回帰手法よりもネットワークが向上することを示す。
論文 参考訳(メタデータ) (2023-11-14T14:24:36Z) - Critic-Driven Decoding for Mitigating Hallucinations in Data-to-text
Generation [5.304395026626743]
入力に埋もれていないテキストの幻覚は、ニューラルネットワークによるテキスト生成においてよく知られた問題である。
生成言語モデルの確率的出力と特別な「テキスト評論家」の出力を組み合わせることで幻覚を緩和する新しい方法を提案する。
本手法では,LMのアーキテクチャやトレーニング手順の変更は不要である。
論文 参考訳(メタデータ) (2023-10-25T20:05:07Z) - Optimizing Factual Accuracy in Text Generation through Dynamic Knowledge
Selection [71.20871905457174]
言語モデル(LM)は、私たちが情報と対話する方法に革命をもたらしたが、しばしば非現実的なテキストを生成する。
従来の手法では、外部知識をテキスト生成の参照として使用して事実性を高めるが、無関係な参照の知識の混在に苦慮することが多い。
本稿では,テキスト生成プロセスを反復処理に分割するDKGenを提案する。
論文 参考訳(メタデータ) (2023-08-30T02:22:40Z) - Autoencoding for the 'Good Dictionary' of eigen pairs of the Koopman
Operator [0.0]
本論文では,深層学習手法であるディープオートエンコーダを用いて,コープマン固有ベクトルの計算に先立って,生データ上に非線形な幾何変換を行う。
高次元時系列データを扱うために、Takesの時間遅延埋め込みを前処理技術として提示する。
論文 参考訳(メタデータ) (2023-06-08T14:21:01Z) - Sampling and Ranking for Digital Ink Generation on a tight computational
budget [69.15275423815461]
トレーニングされたデジタルインク生成モデルの出力品質を最大化する方法について検討する。
我々は、デジタルインク領域におけるその種類に関する最初のアブレーション研究において、複数のサンプリングとランキング手法の効果を使用、比較する。
論文 参考訳(メタデータ) (2023-06-02T09:55:15Z) - Lexically Aware Semi-Supervised Learning for OCR Post-Correction [90.54336622024299]
世界中の多くの言語における既存の言語データの多くは、非デジタル化された書籍や文書に閉じ込められている。
従来の研究は、あまり良くない言語を認識するためのニューラル・ポスト・コレクション法の有用性を実証してきた。
そこで本研究では,生画像を利用した半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:39:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。