論文の概要: Skeleton and Font Generation Network for Zero-shot Chinese Character Generation
- arxiv url: http://arxiv.org/abs/2501.08062v1
- Date: Tue, 14 Jan 2025 12:15:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:29:15.434803
- Title: Skeleton and Font Generation Network for Zero-shot Chinese Character Generation
- Title(参考訳): ゼロショット漢字生成のための骨格とフォント生成ネットワーク
- Authors: Mobai Xue, Jun Du, Zhenrong Zhang, Jiefeng Ma, Qikai Chang, Pengfei Hu, Jianshu Zhang, Yu Hu,
- Abstract要約: そこで我々は,より堅牢な漢字フォント生成を実現するために,新しいSkeleton and Font Generation Network (SFGN)を提案する。
ミススペル文字について実験を行い、その大部分は共通文字とわずかに異なる。
提案手法は、生成した画像の有効性を視覚的に実証し、現在最先端のフォント生成方法より優れていることを示す。
- 参考スコア(独自算出の注目度): 53.08596064763731
- License:
- Abstract: Automatic font generation remains a challenging research issue, primarily due to the vast number of Chinese characters, each with unique and intricate structures. Our investigation of previous studies reveals inherent bias capable of causing structural changes in characters. Specifically, when generating a Chinese character similar to, but different from, those in the training samples, the bias is prone to either correcting or ignoring these subtle variations. To address this concern, we propose a novel Skeleton and Font Generation Network (SFGN) to achieve a more robust Chinese character font generation. Our approach includes a skeleton builder and font generator. The skeleton builder synthesizes content features using low-resource text input, enabling our technique to realize font generation independently of content image inputs. Unlike previous font generation methods that treat font style as a global embedding, we introduce a font generator to align content and style features on the radical level, which is a brand-new perspective for font generation. Except for common characters, we also conduct experiments on misspelled characters, a substantial portion of which slightly differs from the common ones. Our approach visually demonstrates the efficacy of generated images and outperforms current state-of-the-art font generation methods. Moreover, we believe that misspelled character generation have significant pedagogical implications and verify such supposition through experiments. We used generated misspelled characters as data augmentation in Chinese character error correction tasks, simulating the scenario where students learn handwritten Chinese characters with the help of misspelled characters. The significantly improved performance of error correction tasks demonstrates the effectiveness of our proposed approach and the value of misspelled character generation.
- Abstract(参考訳): フォントの自動生成は依然として困難な研究課題であり、主な原因は漢字の多さであり、それぞれが独特で複雑な構造を持つためである。
これまでの研究では,文字の構造的変化を生じさせる固有のバイアスが明らかとなった。
具体的には、トレーニングサンプルの文字と似ているが異なる漢字を生成する場合、そのバイアスはこれらの微妙なバリエーションを修正または無視する傾向がある。
そこで本研究では,より堅牢な漢字フォント生成を実現するために,新しいSkeleton and Font Generation Network(SFGN)を提案する。
私たちのアプローチにはスケルトンビルダーとフォントジェネレータが含まれています。
スケルトンビルダーは低リソーステキスト入力を用いてコンテンツ特徴を合成し,コンテンツ画像入力とは無関係にフォント生成を実現する。
フォントスタイルをグローバルな埋め込みとして扱う従来のフォント生成方法とは異なり、我々はフォント生成の新しい視点である急進的なレベルでコンテンツやスタイルの特徴を整列するフォント生成装置を導入する。
一般的な文字を除いて、誤字の実験も行いますが、その大部分は共通文字と若干異なるものです。
提案手法は、生成した画像の有効性を視覚的に実証し、現在最先端のフォント生成方法より優れていることを示す。
さらに, 誤字生成は教育学的に重要な意味を持ち, 実験を通してそのような仮定を検証できると考えている。
生成したミススペル文字を漢字誤り訂正タスクにおけるデータ拡張として使用し,ミススペル文字の助けを借りて手書き漢字を学習するシナリオをシミュレートした。
誤り訂正タスクの性能は大幅に向上し,提案手法の有効性と誤字生成の妥当性が示された。
関連論文リスト
- Chinese Text Recognition with A Pre-Trained CLIP-Like Model Through
Image-IDS Aligning [61.34060587461462]
中国語テキスト認識(CTR)のための2段階フレームワークを提案する。
印刷文字画像とIdeographic Description Sequences (IDS) の整列によるCLIP様モデルの事前学習を行う。
この事前学習段階は、漢字を認識する人間をシミュレートし、各文字の標準表現を得る。
学習された表現はCTRモデルを監督するために使用され、従来の単一文字認識はテキストライン認識に改善される。
論文 参考訳(メタデータ) (2023-09-03T05:33:16Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - Learning Generative Structure Prior for Blind Text Image
Super-resolution [153.05759524358467]
我々は、キャラクター構造にもっと焦点をあてた小説を提示する。
StyleGANの生成空間を制限するため、各文字の離散的な特徴をコードブックに格納する。
提案した構造は, 従来より強い文字特異的指導を行い, 指定された文字の忠実で正確なストロークを復元する。
論文 参考訳(メタデータ) (2023-03-26T13:54:28Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - SVG Vector Font Generation for Chinese Characters with Transformer [42.46279506573065]
本稿では,トランスフォーマーとロス関数を併用した新しいネットワークアーキテクチャを提案する。
データセットの範囲はサンセリフ族に限られていたが, 初めて中国語のベクトルフォントを生成できた。
論文 参考訳(メタデータ) (2022-06-21T12:51:19Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - ZiGAN: Fine-grained Chinese Calligraphy Font Generation via a Few-shot
Style Transfer Approach [7.318027179922774]
ZiGANは、強力なエンドツーエンドの漢字フォント生成フレームワークである。
微粒なターゲットスタイルの文字を生成するために手動操作や冗長な前処理を一切必要としない。
提案手法は,数発の漢字スタイル転送における最先端の一般化能力を有する。
論文 参考訳(メタデータ) (2021-08-08T09:50:20Z) - StrokeGAN: Reducing Mode Collapse in Chinese Font Generation via Stroke
Encoding [20.877391644999534]
漢字のキーモード情報をキャプチャするための1ビットストロークエンコーディングを紹介します。
我々はこのモード情報を中国語フォント生成のための人気の深層生成モデルであるCycleGANに組み込む。
StrokeGANは一般的に、コンテンツと認識の精度で最先端の手法より優れている。
論文 参考訳(メタデータ) (2020-12-16T01:36:19Z) - Few-Shot Font Generation with Deep Metric Learning [33.12829580813688]
提案するフレームワークは、スタイルエンコーダにディープメトリック学習を導入している。
白黒フォントと形状識別フォントのデータセットを用いて実験を行った。
論文 参考訳(メタデータ) (2020-11-04T10:12:10Z) - CalliGAN: Style and Structure-aware Chinese Calligraphy Character
Generator [6.440233787863018]
書道(きゅうりょう)とは、筆で行う芸術形式としての漢字の書法である。
近年の研究では、1つのモデルを用いて複数のスタイルのイメージ・ツー・イメージ翻訳によって漢字を生成することができることが示されている。
そこで本研究では,漢字の成分情報をモデルに組み込んだ新しい手法を提案する。
論文 参考訳(メタデータ) (2020-05-26T03:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。