論文の概要: Zero-Shot Chinese Character Recognition with Stroke-Level Decomposition
- arxiv url: http://arxiv.org/abs/2106.11613v1
- Date: Tue, 22 Jun 2021 08:49:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 21:49:20.829723
- Title: Zero-Shot Chinese Character Recognition with Stroke-Level Decomposition
- Title(参考訳): ストロークレベル分解によるゼロショット漢字認識
- Authors: Jingye Chen, Bin Li, Xiangyang Xue
- Abstract要約: 本稿では,各文字をストローク列に分解することで,ストロークに基づく手法を提案する。
我々は、予測されたストロークシーケンスを特定の文字に変換するためにマッチングベースの戦略を用いる。
提案手法は、文字をストロークに分解できる他の言語に容易に一般化できる。
- 参考スコア(独自算出の注目度): 37.808021793372504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chinese character recognition has attracted much research interest due to its
wide applications. Although it has been studied for many years, some issues in
this field have not been completely resolved yet, e.g. the zero-shot problem.
Previous character-based and radical-based methods have not fundamentally
addressed the zero-shot problem since some characters or radicals in test sets
may not appear in training sets under a data-hungry condition. Inspired by the
fact that humans can generalize to know how to write characters unseen before
if they have learned stroke orders of some characters, we propose a
stroke-based method by decomposing each character into a sequence of strokes,
which are the most basic units of Chinese characters. However, we observe that
there is a one-to-many relationship between stroke sequences and Chinese
characters. To tackle this challenge, we employ a matching-based strategy to
transform the predicted stroke sequence to a specific character. We evaluate
the proposed method on handwritten characters, printed artistic characters, and
scene characters. The experimental results validate that the proposed method
outperforms existing methods on both character zero-shot and radical zero-shot
tasks. Moreover, the proposed method can be easily generalized to other
languages whose characters can be decomposed into strokes.
- Abstract(参考訳): 中国語の文字認識は幅広い応用のために研究の関心を集めている。
長年研究されてきたが、この分野のいくつかの問題がまだ完全に解決されていない。
ゼロショット問題。
従来の文字ベースおよびラジカルベースの手法は、テストセット内のいくつかの文字やラジカルがデータハングリー条件下でのトレーニングセットに現れないため、ゼロショット問題に根本的な対処を行っていない。
文字のストローク順序が学習される前に、人間が知覚できない文字の書き方を知ることを一般化できるという事実に触発されて、各文字を最も基本的な漢字単位であるストローク列に分解するストロークベースの手法を提案する。
しかし,ストローク列と漢字の間には,一対一の関係があると考えられる。
この課題に対処するために、予測ストロークシーケンスを特定の文字に変換するためにマッチングベースの戦略を用いる。
手書き文字,印刷芸術文字,シーン文字について提案手法を評価した。
実験の結果,提案手法は文字ゼロショットタスクとラジカルゼロショットタスクの両方において既存手法よりも優れていた。
さらに,提案手法は,文字をストロークに分解可能な他の言語にも容易に一般化することができる。
関連論文リスト
- HierCode: A Lightweight Hierarchical Codebook for Zero-shot Chinese Text Recognition [47.86479271322264]
我々は,漢字の自然的階層性を利用した,新規で軽量なコードブックであるHierCodeを提案する。
HierCodeは階層的なバイナリツリーエンコーディングとプロトタイプ学習を活用して、各文字に特徴的な情報表現を生成するマルチホットエンコーディング戦略を採用している。
このアプローチは、共有ラジカルと構造を利用してOOV文字のゼロショット認識を促進するだけでなく、視覚的特徴と類似性を計算することでラインレベルの認識タスクも優れている。
論文 参考訳(メタデータ) (2024-03-20T17:20:48Z) - Chinese Text Recognition with A Pre-Trained CLIP-Like Model Through
Image-IDS Aligning [61.34060587461462]
中国語テキスト認識(CTR)のための2段階フレームワークを提案する。
印刷文字画像とIdeographic Description Sequences (IDS) の整列によるCLIP様モデルの事前学習を行う。
この事前学習段階は、漢字を認識する人間をシミュレートし、各文字の標準表現を得る。
学習された表現はCTRモデルを監督するために使用され、従来の単一文字認識はテキストライン認識に改善される。
論文 参考訳(メタデータ) (2023-09-03T05:33:16Z) - Chinese Character Recognition with Radical-Structured Stroke Trees [51.8541677234175]
我々は各漢字を,その根本的構造に従って整理されたストロークツリーとして表現する。
本稿では,2段階の分解フレームワークを提案し,特徴-ラディカルデコーダがラジカル構造とラジカル領域を知覚する。
Radical-to-Stroke Decoderはさらに、ラジカル領域の特徴に応じてストロークシーケンスを予測する。
論文 参考訳(メタデータ) (2022-11-24T10:28:55Z) - STAR: Zero-Shot Chinese Character Recognition with Stroke- and
Radical-Level Decompositions [14.770409889132539]
脳卒中と急進的な分解を組み合わせ,効果的なゼロショット漢字認識法を提案する。
数値計算の結果,提案手法は文字と急進的なゼロショット設定の両方において最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-10-16T08:57:46Z) - Stroke-Based Autoencoders: Self-Supervised Learners for Efficient
Zero-Shot Chinese Character Recognition [4.64065792373245]
我々は漢字の洗練された形態をモデル化するストロークベースのオートエンコーダを開発した。
我々のSAEアーキテクチャは、ゼロショット認識において、他の既存の手法よりも優れています。
論文 参考訳(メタデータ) (2022-07-17T14:39:10Z) - ZiGAN: Fine-grained Chinese Calligraphy Font Generation via a Few-shot
Style Transfer Approach [7.318027179922774]
ZiGANは、強力なエンドツーエンドの漢字フォント生成フレームワークである。
微粒なターゲットスタイルの文字を生成するために手動操作や冗長な前処理を一切必要としない。
提案手法は,数発の漢字スタイル転送における最先端の一般化能力を有する。
論文 参考訳(メタデータ) (2021-08-08T09:50:20Z) - SHUOWEN-JIEZI: Linguistically Informed Tokenizers For Chinese Language
Model Pretraining [48.880840711568425]
事前学習された言語モデルの中国語トークン化に対する3つの要因の影響について検討する。
本稿では,発音に基づくトークン化システムであるSHUOWEN (Talk Word) と,グリフに基づくトークン化システムであるJIEZI (Solve Character) の3種類のトークン化手法を提案する。
SHUOWENとJIEZIは、一般的に従来のシングル文字トークンよりも優れた性能を持つ。
論文 参考訳(メタデータ) (2021-06-01T11:20:02Z) - Hippocampus-heuristic Character Recognition Network for Zero-shot
Learning [3.720802292070508]
本稿では,Hippocampus-heuristic character Recognition Network (HCRN)を提案する。
HCRNは、急進派の訓練によってのみ、目に見えない漢字(すなわちゼロショット学習)を認識できる。
正確に予測できる漢字は約16,330文字で、500文字しか訓練されていない。
論文 参考訳(メタデータ) (2021-04-06T01:57:20Z) - Generating Adversarial Examples in Chinese Texts Using Sentence-Pieces [60.58900627906269]
文片を用いた代用ジェネレータとして,中国語の逆例を作成できる事前学習型言語モデルを提案する。
生成した敵の例の置換は文字や単語ではなく「テキスト」であり、中国の読者にとって自然である。
論文 参考訳(メタデータ) (2020-12-29T14:28:07Z) - Neural Computing for Online Arabic Handwriting Character Recognition
using Hard Stroke Features Mining [0.0]
オンラインアラビア文字認識における書字ストローク特徴の垂直方向と水平方向から所望の臨界点を検出する方法を提案する。
バックプロパゲーション学習アルゴリズムと修正シグモイド関数に基づくアクティベーション関数を備えた多層パーセプトロンを用いて、文字の分類のためにこれらのトークンから最小の特徴セットを抽出する。
提案手法は,文字認識技術に匹敵する98.6%の平均精度を実現する。
論文 参考訳(メタデータ) (2020-05-02T23:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。