論文の概要: Few-Part-Shot Font Generation
- arxiv url: http://arxiv.org/abs/2509.10006v1
- Date: Fri, 12 Sep 2025 07:04:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:07.998641
- Title: Few-Part-Shot Font Generation
- Title(参考訳): 少人数ショットフォント生成
- Authors: Masaki Akiba, Shumpei Takezaki, Daichi Haraguchi, Seiichi Uchida,
- Abstract要約: 本稿では,一組の部分的設計要素に基づいてフォント全体を設計する,少数ショットフォント生成の新しいモデルを提案する。
いくつかの文字クラスに対して文字全体の形状を必要とする従来の少数ショットフォント生成とは異なり、我々のアプローチは入力として部分的な形状しか必要としない。
- 参考スコア(独自算出の注目度): 7.168901189236293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a novel model of few-part-shot font generation, which designs an entire font based on a set of partial design elements, i.e., partial shapes. Unlike conventional few-shot font generation, which requires entire character shapes for a couple of character classes, our approach only needs partial shapes as input. The proposed model not only improves the efficiency of font creation but also provides insights into how partial design details influence the entire structure of the individual characters.
- Abstract(参考訳): 本稿では,一組の部分的設計要素,すなわち部分的形状に基づいてフォント全体を設計する,少数ショットフォント生成の新しいモデルを提案する。
いくつかの文字クラスに対して文字全体の形状を必要とする従来の少数ショットフォント生成とは異なり、我々のアプローチは入力として部分的な形状しか必要としない。
提案したモデルはフォント作成の効率を向上するだけでなく、部分的な設計の詳細が個々の文字の構造全体にどのように影響するかについての洞察も提供する。
関連論文リスト
- VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Few-shot Font Generation with Weakly Supervised Localized
Representations [17.97183447033118]
ユニバーサルなスタイルではなく,局所的なスタイル,すなわちコンポーネントワイドなスタイル表現を学習する新しいフォント生成手法を提案する。
提案手法は,他の最先端手法よりも極めて優れたフォント生成結果(参照グリフが8つしかない)を示す。
論文 参考訳(メタデータ) (2021-12-22T14:26:53Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z) - Which Parts determine the Impression of the Font? [0.0]
様々なフォントは、レグレッシブル、ラフ、コミックテキストなど様々な印象を与える。
文字全体の形状ではなく、局所的な形状に焦点を合わせることで、文字型の独立でより一般的な分析を実現できます。
論文 参考訳(メタデータ) (2021-03-26T02:13:24Z) - Few-shot Font Generation with Localized Style Representations and
Factorization [23.781619323447003]
ユニバーサルスタイルの代わりに,局所化スタイル,すなわちコンポーネントワイドスタイル表現を学習し,新しいフォント生成手法を提案する。
提案手法は,8つの基準グリフ画像しか持たない少数のフォント生成結果が,他の最先端のフォントよりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2020-09-23T10:33:01Z) - Multiform Fonts-to-Fonts Translation via Style and Content Disentangled
Representations of Chinese Character [10.236778478360614]
本研究の目的は,文字の内容とスタイルを抽出・再結合できるネットワークフレームワークを設計することである。
本稿では、畳み込みニューラルネットワーク、多層パーセプトロン、残留ネットワークなどの様々な深度ネットワークを組み合わせて最適モデルを求める。
その結果、構造類似度指数とピーク信号対雑音比評価基準を用いて、生成した文字が実際の文字に非常に近いことを示す。
論文 参考訳(メタデータ) (2020-03-28T04:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。