論文の概要: Stroke Extraction of Chinese Character Based on Deep Structure
Deformable Image Registration
- arxiv url: http://arxiv.org/abs/2307.04341v1
- Date: Mon, 10 Jul 2023 04:50:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 14:09:46.546741
- Title: Stroke Extraction of Chinese Character Based on Deep Structure
Deformable Image Registration
- Title(参考訳): 深部構造変形可能な画像登録に基づく漢字のストローク抽出
- Authors: Meng Li, Yahan Yu, Yi Yang, Guanghao Ren, Jian Wang
- Abstract要約: 本稿では,意味的特徴と先行情報を考慮に入れた深層学習に基づく文字ストローク抽出手法を提案する。
本手法は、基準ストロークとターゲットの粗大な登録を事前情報として確立する画像登録ベースストローク登録と、予めターゲットストロークを7つのカテゴリに分けた画像意味セグメンテーションベースのストロークセグメンテーションと、単一ストロークの高精度抽出とからなる。
本研究では, 複雑な構造を持つ文字画像に対して, 単一ストロークの安定な形態を維持しつつ, 構造変形可能な変換を実現する構造変形可能な画像登録ネットワークを提案する。
- 参考スコア(独自算出の注目度): 25.49394055539858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stroke extraction of Chinese characters plays an important role in the field
of character recognition and generation. The most existing character stroke
extraction methods focus on image morphological features. These methods usually
lead to errors of cross strokes extraction and stroke matching due to rarely
using stroke semantics and prior information. In this paper, we propose a deep
learning-based character stroke extraction method that takes semantic features
and prior information of strokes into consideration. This method consists of
three parts: image registration-based stroke registration that establishes the
rough registration of the reference strokes and the target as prior
information; image semantic segmentation-based stroke segmentation that
preliminarily separates target strokes into seven categories; and
high-precision extraction of single strokes. In the stroke registration, we
propose a structure deformable image registration network to achieve
structure-deformable transformation while maintaining the stable morphology of
single strokes for character images with complex structures. In order to verify
the effectiveness of the method, we construct two datasets respectively for
calligraphy characters and regular handwriting characters. The experimental
results show that our method strongly outperforms the baselines. Code is
available at https://github.com/MengLi-l1/StrokeExtraction.
- Abstract(参考訳): 漢字のストローク抽出は、文字認識と生成の分野で重要な役割を担っている。
最も既存の文字ストローク抽出法は画像形態学的特徴に焦点を当てている。
これらの手法は通常、ストロークのセマンティクスや事前情報を使用しないため、クロスストローク抽出とストロークマッチングのエラーを引き起こす。
本稿では,ストロークの意味的特徴と先行情報を考慮した深層学習に基づく文字ストローク抽出手法を提案する。
本手法は、基準ストロークと対象ストロークの粗い登録を先行情報として確立する画像登録に基づくストローク登録と、目標ストロークを予め7つのカテゴリに分けた画像意味セグメンテーションに基づくストローク分割と、シングルストロークの高精度抽出とからなる。
本研究では, 複雑な構造を持つ文字画像に対して, 単一ストロークの安定な形態を維持しつつ, 構造変形可能な変換を実現する構造変形可能な画像登録ネットワークを提案する。
本手法の有効性を検証するため,筆跡文字と正規筆跡文字の2つのデータセットを構築した。
実験の結果,本手法はベースラインよりも高い性能を示した。
コードはhttps://github.com/MengLi-l1/StrokeExtractionで入手できる。
関連論文リスト
- Orientation-Independent Chinese Text Recognition in Scene Images [61.34060587461462]
本研究は,テキスト画像のコンテンツと方向情報を切り離すことにより,向きに依存しない視覚特徴を抽出する試みである。
具体的には,不整合コンテンツと向き情報を用いて対応する文字イメージを復元する文字画像再構成ネットワーク(CIRN)を提案する。
論文 参考訳(メタデータ) (2023-09-03T05:30:21Z) - Siamese based Neural Network for Offline Writer Identification on word
level data [7.747239584541488]
入力語画像に基づいて文書の著者を特定する新しい手法を提案する。
本手法はテキスト独立であり,入力画像のサイズに制約を課さない。
論文 参考訳(メタデータ) (2022-11-17T10:01:46Z) - Self-supervised Character-to-Character Distillation for Text Recognition [54.12490492265583]
そこで本研究では,テキスト表現学習を容易にする汎用的な拡張を可能にする,自己教師型文字-文字-文字間蒸留法CCDを提案する。
CCDは、テキスト認識の1.38%、テキストセグメンテーションの1.7%、PSNRの0.24dB、超解像の0.0321(SSIM)で、最先端の結果を達成する。
論文 参考訳(メタデータ) (2022-11-01T05:48:18Z) - MaskCLIP: Masked Self-Distillation Advances Contrastive Language-Image
Pretraining [138.86293836634323]
MaskCLIPは、新たに提案されたマスク付き自己蒸留をコントラスト言語イメージ事前学習に組み込む。
MaskCLIPは、言語エンコーダの誘導により、線形探索、微調整、ゼロショット性能において優れた結果が得られる。
論文 参考訳(メタデータ) (2022-08-25T17:59:58Z) - Stroke-Based Autoencoders: Self-Supervised Learners for Efficient
Zero-Shot Chinese Character Recognition [4.64065792373245]
我々は漢字の洗練された形態をモデル化するストロークベースのオートエンコーダを開発した。
我々のSAEアーキテクチャは、ゼロショット認識において、他の既存の手法よりも優れています。
論文 参考訳(メタデータ) (2022-07-17T14:39:10Z) - Text Gestalt: Stroke-Aware Scene Text Image Super-Resolution [31.88960656995447]
テキスト画像中の文字のストロークレベルの内部構造に焦点を合わせるために,Stroke-Aware Scene Text Image Super-Resolution法を提案する。
具体的には、英語の文字と数字をストロークレベルに分解するためのルールを設計し、テキスト認識器を事前訓練して、ストロークレベルのアテンションマップを位置的手がかりとして提供する。
提案手法は,TextZoomと手作業で構築した漢字データセットDegraded-IC13上で,より区別可能な画像を生成することができる。
論文 参考訳(メタデータ) (2021-12-13T15:26:10Z) - CRIS: CLIP-Driven Referring Image Segmentation [71.56466057776086]
エンドツーエンドのCLIP駆動参照画像フレームワーク(CRIS)を提案する。
CRISは、テキストとピクセルのアライメントを達成するために、視覚言語によるデコーディングとコントラスト学習に頼っている。
提案するフレームワークは, 後処理を伴わずに, 最先端の性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-11-30T07:29:08Z) - Unsupervised Deep Learning for Handwritten Page Segmentation [0.0]
ページ分割のための教師なし深層学習法を提案する。
サイアムスニューラルネットワークは、測定可能な特性を使用してパッチを区別するように訓練される。
実験の結果,提案手法は通常の教師なし手法と同じくらい有効であることがわかった。
論文 参考訳(メタデータ) (2021-01-19T07:13:38Z) - Separating Content from Style Using Adversarial Learning for Recognizing
Text in the Wild [103.51604161298512]
画像中の複数の文字の生成と認識のための逆学習フレームワークを提案する。
我々のフレームワークは、新しい最先端の認識精度を達成するために、最近の認識手法に統合することができる。
論文 参考訳(メタデータ) (2020-01-13T12:41:42Z) - TextScanner: Reading Characters in Order for Robust Scene Text
Recognition [60.04267660533966]
TextScannerはシーンテキスト認識の代替手法である。
文字クラス、位置、順序に対する画素単位のマルチチャネルセグメンテーションマップを生成する。
また、コンテキストモデリングにRNNを採用し、文字の位置とクラスを並列で予測する。
論文 参考訳(メタデータ) (2019-12-28T07:52:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。