論文の概要: DA-Font: Few-Shot Font Generation via Dual-Attention Hybrid Integration
- arxiv url: http://arxiv.org/abs/2509.16632v1
- Date: Sat, 20 Sep 2025 11:12:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.897417
- Title: DA-Font: Few-Shot Font Generation via Dual-Attention Hybrid Integration
- Title(参考訳): DA-Font:Dual-Attention Hybrid IntegrationによるFew-Shot Font生成
- Authors: Weiran Chen, Guiqian Zhu, Ying Li, Yi Ji, Chunping Liu,
- Abstract要約: DA-FontはDual-Attention Hybrid Moduleを統合する新しいフレームワークである。
DA-Fontは様々なフォントスタイルや文字で最先端の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 12.71388563750518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot font generation aims to create new fonts with a limited number of glyph references. It can be used to significantly reduce the labor cost of manual font design. However, due to the variety and complexity of font styles, the results generated by existing methods often suffer from visible defects, such as stroke errors, artifacts and blurriness. To address these issues, we propose DA-Font, a novel framework which integrates a Dual-Attention Hybrid Module (DAHM). Specifically, we introduce two synergistic attention blocks: the component attention block that leverages component information from content images to guide the style transfer process, and the relation attention block that further refines spatial relationships through interacting the content feature with both original and stylized component-wise representations. These two blocks collaborate to preserve accurate character shapes and stylistic textures. Moreover, we also design a corner consistency loss and an elastic mesh feature loss to better improve geometric alignment. Extensive experiments show that our DA-Font outperforms the state-of-the-art methods across diverse font styles and characters, demonstrating its effectiveness in enhancing structural integrity and local fidelity. The source code can be found at \href{https://github.com/wrchen2001/DA-Font}{\textit{https://github.com/wrchen2001/DA-Font}}.
- Abstract(参考訳): 短いショットフォント生成は、グリフ参照数に制限のある新しいフォントを作成することを目的としている。
手動フォント設計の作業コストを大幅に削減するために使用することができる。
しかし、フォントスタイルの多様性と複雑さのため、既存のメソッドが生成した結果は、ストロークエラー、アーティファクト、曖昧さなどの目に見える欠陥に悩まされることが多い。
DA-FontはDual-Attention Hybrid Module (DAHM)を統合した新しいフレームワークである。
具体的には、コンテンツ画像からのコンポーネント情報を活用してスタイル転送プロセスを導出するコンポーネントアテンションブロックと、コンテンツ特徴をオリジナルおよびスタイリングされたコンポーネントワイド表現と相互作用させることで空間的関係をさらに洗練する関係アテンションブロックという2つの相乗的アテンションブロックを導入する。
これら2つのブロックは、正確なキャラクタ形状とスタイルのテクスチャを維持するために協力する。
さらに,角の整合性損失と弾性メッシュ特性損失を設計し,幾何学的アライメントの改善を図る。
我々のDA-Fontは多種多様なフォントスタイルや文字にまたがる最先端の手法よりも優れており、構造的整合性と局所的忠実性の向上に有効であることを示す。
ソースコードは \href{https://github.com/wrchen2001/DA-Font}{\textit{https://github.com/wrchen2001/DA-Font}} にある。
関連論文リスト
- FontDiffuser: One-Shot Font Generation via Denoising Diffusion with
Multi-Scale Content Aggregation and Style Contrastive Learning [45.696909070215476]
FontDiffuserは拡散に基づく画像から画像へのワンショットフォント生成手法である。
従来の方法と比較して、複雑な文字と大きなスタイルの変更を一貫して排他的に引き継いでいる。
論文 参考訳(メタデータ) (2023-12-19T13:23:20Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。