論文の概要: Towards Writing Style Adaptation in Handwriting Recognition
- arxiv url: http://arxiv.org/abs/2302.06318v1
- Date: Mon, 13 Feb 2023 12:36:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 15:39:01.283188
- Title: Towards Writing Style Adaptation in Handwriting Recognition
- Title(参考訳): 手書き認識における書体適応に向けて
- Authors: Jan Koh\'ut, Michal Hradi\v{s}, Martin Ki\v{s}\v{s}
- Abstract要約: 著者のアイデンティティを付加的な入力として捉えるために,著者に依存したパラメータを持つモデルについて検討する。
本稿では,学習した分割の埋め込みを前提とした適応型インスタンス正規化層であるWriter Style Block (WSB)を提案する。
著者に依存したシナリオでは,本手法はWSBのないベースラインよりも優れており,新たなライターへの埋め込みを推定することが可能であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the challenges of handwriting recognition is to transcribe a large
number of vastly different writing styles. State-of-the-art approaches do not
explicitly use information about the writer's style, which may be limiting
overall accuracy due to various ambiguities. We explore models with
writer-dependent parameters which take the writer's identity as an additional
input. The proposed models can be trained on datasets with partitions likely
written by a single author (e.g. single letter, diary, or chronicle). We
propose a Writer Style Block (WSB), an adaptive instance normalization layer
conditioned on learned embeddings of the partitions. We experimented with
various placements and settings of WSB and contrastively pre-trained
embeddings. We show that our approach outperforms a baseline with no WSB in a
writer-dependent scenario and that it is possible to estimate embeddings for
new writers. However, domain adaptation using simple finetuning in a
writer-independent setting provides superior accuracy at a similar
computational cost. The proposed approach should be further investigated in
terms of training stability and embedding regularization to overcome such a
baseline.
- Abstract(参考訳): 手書き認識の課題の1つは、多種多様なスタイルを書写することである。
最先端のアプローチは、様々な曖昧さのために全体的な正確さを制限する可能性があるライターのスタイルに関する情報を明示的に使用しない。
我々は、ライターのアイデンティティを追加の入力として取り込む、ライター依存のパラメータを持つモデルについて検討する。
提案されたモデルは、単一の著者(例えば、シングルレター、ダイアリー、クロニクル)によって書かれたパーティションを持つデータセットでトレーニングすることができる。
本稿では,分割の学習埋め込みを前提とした適応型インスタンス正規化層であるWriter Style Block (WSB)を提案する。
我々はWSBの様々な配置と設定、および対照的に事前訓練された埋め込みを実験した。
著者に依存したシナリオでは,本手法はWSBのないベースラインよりも優れており,新たなライターへの埋め込みを推定できることを示す。
しかし、ライターに依存しない設定での単純な微調整によるドメイン適応は、同様の計算コストで優れた精度を提供する。
提案手法は, トレーニング安定度の観点からさらに検討し, 正規化を組み込んでベースラインを克服する。
関連論文リスト
- A Bayesian Approach to Harnessing the Power of LLMs in Authorship Attribution [57.309390098903]
著者の属性は、文書の起源または著者を特定することを目的としている。
大きな言語モデル(LLM)とその深い推論能力と長距離テキストアソシエーションを維持する能力は、有望な代替手段を提供する。
IMDbおよびブログデータセットを用いた結果, 著者10名を対象に, 著者1名に対して, 85%の精度が得られた。
論文 参考訳(メタデータ) (2024-10-29T04:14:23Z) - Localizing Factual Inconsistencies in Attributable Text Generation [91.981439746404]
本稿では,帰属可能なテキスト生成における事実の不整合をローカライズするための新しい形式であるQASemConsistencyを紹介する。
まず,人間のアノテーションに対するQASemConsistency法の有効性を示す。
そこで我々は,局所的な事実の不整合を自動的に検出するいくつかの手法を実装した。
論文 参考訳(メタデータ) (2024-10-09T22:53:48Z) - Capturing Style in Author and Document Representation [4.323709559692927]
著者と文書の埋め込みをスタイリスティックな制約で学習する新しいアーキテクチャを提案する。
本稿では,Gutenbergプロジェクトから抽出した文芸コーパス,Blog Authorship,IMDb62の3つのデータセットについて評価を行った。
論文 参考訳(メタデータ) (2024-07-18T10:01:09Z) - Fine-grained Controllable Text Generation through In-context Learning with Feedback [57.396980277089135]
本稿では,依存度などの非自明な言語的特徴の特定の値に一致させるために,入力文を書き換える手法を提案する。
従来の研究とは対照的に、本手法は微調整ではなく文脈内学習を用いており、データが少ないユースケースに適用できる。
論文 参考訳(メタデータ) (2024-06-17T08:55:48Z) - PART: Pre-trained Authorship Representation Transformer [64.78260098263489]
文書を書く著者は、語彙、レジストリ、句読点、ミススペル、絵文字の使用など、テキスト内での識別情報をインプリントする。
以前の作品では、手作りのフィーチャや分類タスクを使用して著者モデルをトレーニングし、ドメイン外の著者に対するパフォーマンスの低下につながった。
セマンティクスの代わりにtextbfauthorship の埋め込みを学習するために、対照的に訓練されたモデルを提案する。
論文 参考訳(メタデータ) (2022-09-30T11:08:39Z) - Letter-level Online Writer Identification [86.13203975836556]
我々は文字レベルのオンラインライタIDという新たな問題に焦点をあてる。
主な課題は、しばしば異なるスタイルで手紙を書くことである。
我々はこの問題をオンライン書記スタイルのばらつき(Var-O-Styles)と呼ぶ。
論文 参考訳(メタデータ) (2021-12-06T07:21:53Z) - MetaHTR: Towards Writer-Adaptive Handwritten Text Recognition [36.12001394921506]
我々は手書き文字認識の新しい手法を提案する。
新しいメタラーニングフレームワークを使い、新たなライターデータを利用する。
当社のフレームワークは、最先端のHTRモデルの上に簡単に実装できます。
論文 参考訳(メタデータ) (2021-04-05T12:35:39Z) - Generating Handwriting via Decoupled Style Descriptors [28.31500214381889]
本稿では,手書き文字のデクリプタモデルについて紹介する。
キャラクタレベルのスタイルとライタレベルのスタイルの両方を規定し、私たちのモデルが全体的なスタイルの空間を表現できるようにします。
実験では, 得られた結果の88%が, アートベースライン法の現状よりも好適であった。
論文 参考訳(メタデータ) (2020-08-26T02:52:48Z) - Learning to Select Bi-Aspect Information for Document-Scale Text Content
Manipulation [50.01708049531156]
我々は、テキストスタイルの転送とは逆の文書スケールのテキストコンテンツ操作という、新しい実践的なタスクに焦点を当てる。
詳細は、入力は構造化されたレコードと、別のレコードセットを記述するための参照テキストのセットである。
出力は、ソースレコードセットの部分的内容と参照の書き込みスタイルを正確に記述した要約である。
論文 参考訳(メタデータ) (2020-02-24T12:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。