論文の概要: Moyun: A Diffusion-Based Model for Style-Specific Chinese Calligraphy Generation
- arxiv url: http://arxiv.org/abs/2410.07618v1
- Date: Thu, 10 Oct 2024 05:14:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 15:56:40.638495
- Title: Moyun: A Diffusion-Based Model for Style-Specific Chinese Calligraphy Generation
- Title(参考訳): Moyun: スタイル特有な中国語書体生成のための拡散モデル
- Authors: Kaiyuan Liu, Jiahao Mei, Hengyu Zhang, Yihuai Zhang, Xingjiao Wu, Daoguo Dong, Liang He,
- Abstract要約: 「もゆん」は、生成過程を効果的に制御し、特定の様式で書を書ける。
書道においても「もゆん」は書道の様式にマッチした書風を書ける。
- 参考スコア(独自算出の注目度): 10.7430517947254
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Although Chinese calligraphy generation has achieved style transfer, generating calligraphy by specifying the calligrapher, font, and character style remains challenging. To address this, we propose a new Chinese calligraphy generation model 'Moyun' , which replaces the Unet in the Diffusion model with Vision Mamba and introduces the TripleLabel control mechanism to achieve controllable calligraphy generation. The model was tested on our large-scale dataset 'Mobao' of over 1.9 million images, and the results demonstrate that 'Moyun' can effectively control the generation process and produce calligraphy in the specified style. Even for calligraphy the calligrapher has not written, 'Moyun' can generate calligraphy that matches the style of the calligrapher.
- Abstract(参考訳): 中国書道は書風の伝授を達成しているが、書家、フォント、文字スタイルを指定して書風を生成することは依然として困難である。
そこで我々は,DiffusionモデルにおけるUnetをVision Mambaに置き換えた新しい中国語書跡生成モデル"Moyun"を提案し,制御可能な書跡生成を実現するためのTripleLabel制御機構を提案する。
このモデルは,190万枚以上の画像からなる大規模データセット「モバオ」で検証した結果,「モユン」が生成過程を効果的に制御し,特定のスタイルで書体を作成できることが実証された。
書道においても「もゆん」は書道の様式にマッチした書風を書ける。
関連論文リスト
- Empowering Backbone Models for Visual Text Generation with Input Granularity Control and Glyph-Aware Training [68.41837295318152]
拡散に基づくテキスト・ツー・イメージモデルでは、多様性と美学の素晴らしい成果が示されているが、視覚的なテキストで画像を生成するのに苦労している。
既存のバックボーンモデルには、ミススペル、テキスト生成の失敗、中国語テキストのサポートの欠如といった制限がある。
本稿では,英語と中国語の視覚テキスト生成にバックボーンモデルを活用するための一連の手法を提案する。
論文 参考訳(メタデータ) (2024-10-06T10:25:39Z) - Style Generation in Robot Calligraphy with Deep Generative Adversarial
Networks [15.199472080437527]
漢字の数は数万であり、6000文字を超える一貫した漢字フォントの生成が困難になる。
本稿では,プロの規格で書体を生成可能な,深層生成逆数ネットワーク(deepGAN)に基づく自動書体生成モデルを提案する。
論文 参考訳(メタデータ) (2023-12-15T10:35:30Z) - CalliPaint: Chinese Calligraphy Inpainting with Diffusion Model [17.857394263321538]
本稿では,中国書道の書道とイメージインペインティングの両面での最近の進歩を生かした新しいモデルを提案する。
提案したモデルであるCalliPaintは、説得力のある漢字を書けることを示す。
論文 参考訳(メタデータ) (2023-12-03T23:29:59Z) - Calliffusion: Chinese Calligraphy Generation and Style Transfer with
Diffusion Modeling [1.856334276134661]
拡散モデルを用いて高品質な漢字書体を生成するシステムであるCaliffusionを提案する。
我々のモデルアーキテクチャはDDPM(Denoising Diffusion Probabilistic Models)に基づいている
論文 参考訳(メタデータ) (2023-05-30T15:34:45Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - ShufaNet: Classification method for calligraphers who have reached the
professional level [0.0]
そこで我々は,中国の書道スタイルを計量学習に基づいて分類する新しい手法,ShufaNetを提案する。
提案手法は,resNetや他の主流CNNを超越した,数ショット学習のためのデータセットの精度を65%向上した。
論文 参考訳(メタデータ) (2021-11-22T16:55:31Z) - Learning to Generate Scene Graph from Natural Language Supervision [52.18175340725455]
シーングラフと呼ばれる画像内の局所化オブジェクトとその関係をグラフィカルに表現するために,画像と文のペアから学習する最初の方法の1つを提案する。
既製のオブジェクト検出器を利用してオブジェクトのインスタンスを識別し、ローカライズし、検出された領域のラベルとキャプションから解析された概念をマッチングし、シーングラフを学習するための"擬似ラベル"を作成する。
論文 参考訳(メタデータ) (2021-09-06T03:38:52Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - Handwriting Transformers [98.3964093654716]
本稿では,スタイルコンテンツの絡み合いとグローバルおよびローカルライティングスタイルパターンの両方を学ぶことを目的とした,トランスフォーマティブベースの手書きテキスト画像生成手法であるhwtを提案する。
提案したHWTは, 自己認識機構を用いて, スタイルの例における長短距離関係をキャプチャする。
提案するHWTは,現実的な手書きテキスト画像を生成する。
論文 参考訳(メタデータ) (2021-04-08T17:59:43Z) - Comprehensive Image Captioning via Scene Graph Decomposition [51.660090468384375]
本稿では,画像シーングラフの表現を再検討することにより,画像キャプションの課題に対処する。
我々の手法の核となるのは、シーングラフをサブグラフの集合に分解することである。
我々は,重要な部分グラフを選択し,選択した各サブグラフを1つのターゲット文にデコードするディープモデルを設計する。
論文 参考訳(メタデータ) (2020-07-23T00:59:21Z) - CalliGAN: Style and Structure-aware Chinese Calligraphy Character
Generator [6.440233787863018]
書道(きゅうりょう)とは、筆で行う芸術形式としての漢字の書法である。
近年の研究では、1つのモデルを用いて複数のスタイルのイメージ・ツー・イメージ翻訳によって漢字を生成することができることが示されている。
そこで本研究では,漢字の成分情報をモデルに組み込んだ新しい手法を提案する。
論文 参考訳(メタデータ) (2020-05-26T03:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。