論文の概要: Style Generation in Robot Calligraphy with Deep Generative Adversarial
Networks
- arxiv url: http://arxiv.org/abs/2312.09673v1
- Date: Fri, 15 Dec 2023 10:35:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 16:13:37.714997
- Title: Style Generation in Robot Calligraphy with Deep Generative Adversarial
Networks
- Title(参考訳): 深部生成逆ネットワークを用いたロボット書道のスタイル生成
- Authors: Xiaoming Wang, Zhiguo Gong
- Abstract要約: 漢字の数は数万であり、6000文字を超える一貫した漢字フォントの生成が困難になる。
本稿では,プロの規格で書体を生成可能な,深層生成逆数ネットワーク(deepGAN)に基づく自動書体生成モデルを提案する。
- 参考スコア(独自算出の注目度): 15.199472080437527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robot calligraphy is an emerging exploration of artificial intelligence in
the fields of art and education. Traditional calligraphy generation researches
mainly focus on methods such as tool-based image processing, generative models,
and style transfer. Unlike the English alphabet, the number of Chinese
characters is tens of thousands, which leads to difficulties in the generation
of a style consistent Chinese calligraphic font with over 6000 characters. Due
to the lack of high-quality data sets, formal definitions of calligraphy
knowledge, and scientific art evaluation methods, The results generated are
frequently of low quality and falls short of professional-level requirements.
To address the above problem, this paper proposes an automatic calligraphy
generation model based on deep generative adversarial networks (deepGAN) that
can generate style calligraphy fonts with professional standards. The key
highlights of the proposed method include: (1) The datasets use a
high-precision calligraphy synthesis method to ensure its high quality and
sufficient quantity; (2) Professional calligraphers are invited to conduct a
series of Turing tests to evaluate the gap between model generation results and
human artistic level; (3) Experimental results indicate that the proposed model
is the state-of-the-art among current calligraphy generation methods. The
Turing tests and similarity evaluations validate the effectiveness of the
proposed method.
- Abstract(参考訳): ロボット書道は、芸術と教育の分野における人工知能の新たな探索である。
従来の書道世代の研究は主にツールベースの画像処理、生成モデル、スタイル転送などの手法に焦点を当てている。
英語のアルファベットとは異なり、漢字の数は数万であり、6000文字を超える中国の書体が一貫した書体を生成するのが困難である。
高品質なデータセットの欠如、書道知識の形式的定義、科学的技術評価方法により、得られた結果は品質が低く、専門レベルの要件に満たないことが多い。
上記の問題に対処するため,本研究では,プロフェッショナルな基準で書体を生成可能な,深層生成逆数ネットワーク(deepGAN)に基づく自動書跡生成モデルを提案する。
提案手法の主な特徴は,(1)高品質かつ十分な量を確保するために,データセットが高精度な書道合成手法を使用すること,(2)モデル生成結果と人間の芸術的レベルのギャップを評価するための一連のチューリングテストを実施すること,(3)実験結果から,提案手法が現行の書道生成手法の最先端であることを示唆する。
チューリング試験と類似性評価は,提案手法の有効性を検証した。
関連論文リスト
- Empowering Backbone Models for Visual Text Generation with Input Granularity Control and Glyph-Aware Training [68.41837295318152]
拡散に基づくテキスト・ツー・イメージモデルでは、多様性と美学の素晴らしい成果が示されているが、視覚的なテキストで画像を生成するのに苦労している。
既存のバックボーンモデルには、ミススペル、テキスト生成の失敗、中国語テキストのサポートの欠如といった制限がある。
本稿では,英語と中国語の視覚テキスト生成にバックボーンモデルを活用するための一連の手法を提案する。
論文 参考訳(メタデータ) (2024-10-06T10:25:39Z) - Information Theoretic Text-to-Image Alignment [49.396917351264655]
本稿では,ステア画像生成のための情報理論アライメント尺度を用いた新しい手法を提案する。
提案手法は最先端の手法よりも優れているが,MIを推定するためには事前学習されたデノナイジングネットワークを必要としない。
論文 参考訳(メタデータ) (2024-05-31T12:20:02Z) - Few-shot Calligraphy Style Learning [0.0]
プレシディフスション(Presidifussion)は、周大統領の独自の書風を習得し、複製する新しいアプローチである。
フォント画像条件付けとストローク情報条件付けの革新的手法を導入し,漢字の複雑な構造要素を抽出する。
本研究は,書道芸術のデジタル保存におけるブレークスルーを示すだけでなく,文化遺産デジタル化分野におけるデータ効率生成モデリングの新たな標準となる。
論文 参考訳(メタデータ) (2024-04-26T07:17:09Z) - Self-Supervised Representation Learning for Online Handwriting Text
Classification [0.8594140167290099]
本稿では,日本語と中国語の個人によるオンライン筆跡から情報表現を抽出するための事前学習の前提として,新しいストロークマスキング(POSM)を提案する。
抽出した表現の質を評価するために,本質的評価法と外生的評価法の両方を用いる。
事前訓練されたモデルは、作家の識別、性別分類、手書きの分類といったタスクにおいて、最先端の結果を達成するために微調整される。
論文 参考訳(メタデータ) (2023-10-10T14:07:49Z) - AGTGAN: Unpaired Image Translation for Photographic Ancient Character
Generation [27.77329906930072]
本稿では,AGTGAN と呼ばれる非教師付き生成敵ネットワークを提案する。
グローバルなグリフ形状と局所的なグリフ形状のモデリングにより,多様なグリフと現実的なテクスチャを持つキャラクタを生成することができる。
得られた画像から,最大写真オラクル骨キャラクタデータセットを用いた実験により,分類精度を最大16.34%向上させることができた。
論文 参考訳(メタデータ) (2023-03-13T11:18:41Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Language Does More Than Describe: On The Lack Of Figurative Speech in
Text-To-Image Models [63.545146807810305]
テキスト・ツー・イメージ拡散モデルでは、テキスト入力プロンプトから高品質な画像を生成することができる。
これらのモデルは、コンテンツベースのラベル付けプロトコルから収集されたテキストデータを用いて訓練されている。
本研究では,現在使用されているテキスト・画像拡散モデルのトレーニングに使用されている公開テキストデータの感情性,目的性,抽象化の程度を特徴付ける。
論文 参考訳(メタデータ) (2022-10-19T14:20:05Z) - Reading and Writing: Discriminative and Generative Modeling for
Self-Supervised Text Recognition [101.60244147302197]
テキスト画像の識別と生成を学習するために,コントラスト学習とマスク付き画像モデリングを導入する。
本手法は,不規則なシーンテキスト認識データセットにおいて,従来の自己教師付きテキスト認識手法を10.2%~20.2%向上させる。
提案したテキスト認識器は,11のベンチマークで平均5.3%の精度で従来のテキスト認識手法を上回り,モデルサイズが類似している。
論文 参考訳(メタデータ) (2022-07-01T03:50:26Z) - ShufaNet: Classification method for calligraphers who have reached the
professional level [0.0]
そこで我々は,中国の書道スタイルを計量学習に基づいて分類する新しい手法,ShufaNetを提案する。
提案手法は,resNetや他の主流CNNを超越した,数ショット学習のためのデータセットの精度を65%向上した。
論文 参考訳(メタデータ) (2021-11-22T16:55:31Z) - One-shot Compositional Data Generation for Low Resource Handwritten Text
Recognition [10.473427493876422]
低リソース手書きテキスト認識は、わずかな注釈付きデータと非常に限られた言語情報のために難しい問題です。
本稿では,ベイズプログラム学習に基づくデータ生成手法を用いてこの問題に対処する。
大量の注釈付き画像を必要とする従来型の手法とは対照的に,各記号のサンプルを1つだけ,所望のアルファベットから生成することが可能である。
論文 参考訳(メタデータ) (2021-05-11T18:53:01Z) - Neural Language Modeling for Contextualized Temporal Graph Generation [49.21890450444187]
本稿では,大規模事前学習言語モデルを用いた文書のイベントレベル時間グラフの自動生成に関する最初の研究について述べる。
論文 参考訳(メタデータ) (2020-10-20T07:08:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。