論文の概要: DeepVecFont-v2: Exploiting Transformers to Synthesize Vector Fonts with
Higher Quality
- arxiv url: http://arxiv.org/abs/2303.14585v1
- Date: Sat, 25 Mar 2023 23:28:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 18:57:41.796989
- Title: DeepVecFont-v2: Exploiting Transformers to Synthesize Vector Fonts with
Higher Quality
- Title(参考訳): DeepVecFont-v2: 高品質なベクトルフォントを合成するトランスフォーマーの爆発
- Authors: Yuqing Wang, Yizhi Wang, Longhui Yu, Yuesheng Zhu, Zhouhui Lian
- Abstract要約: 本稿では,ベクトルフォント合成のためのDeepVecFontの拡張版を提案する。
RNNの代わりにTransformerを採用して逐次データ処理を行い、ベクトルアウトラインの緩和表現を設計する。
また,生成したB'ezier曲線や線を正確に整列する制御点に加えて,補助点のサンプリングも提案する。
- 参考スコア(独自算出の注目度): 38.32966391626858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vector font synthesis is a challenging and ongoing problem in the fields of
Computer Vision and Computer Graphics. The recently-proposed DeepVecFont
achieved state-of-the-art performance by exploiting information of both the
image and sequence modalities of vector fonts. However, it has limited
capability for handling long sequence data and heavily relies on an
image-guided outline refinement post-processing. Thus, vector glyphs
synthesized by DeepVecFont still often contain some distortions and artifacts
and cannot rival human-designed results. To address the above problems, this
paper proposes an enhanced version of DeepVecFont mainly by making the
following three novel technical contributions. First, we adopt Transformers
instead of RNNs to process sequential data and design a relaxation
representation for vector outlines, markedly improving the model's capability
and stability of synthesizing long and complex outlines. Second, we propose to
sample auxiliary points in addition to control points to precisely align the
generated and target B\'ezier curves or lines. Finally, to alleviate error
accumulation in the sequential generation process, we develop a context-based
self-refinement module based on another Transformer-based decoder to remove
artifacts in the initially synthesized glyphs. Both qualitative and
quantitative results demonstrate that the proposed method effectively resolves
those intrinsic problems of the original DeepVecFont and outperforms existing
approaches in generating English and Chinese vector fonts with complicated
structures and diverse styles.
- Abstract(参考訳): ベクトルフォント合成はコンピュータビジョンとコンピュータグラフィックスの分野で難しい問題であり、進行中の課題である。
最近発表されたdeepvecfontは、ベクターフォントの画像とシーケンスのモダリティの情報を活用し、最先端のパフォーマンスを実現している。
しかし、長いシーケンスデータを扱う能力は限られており、画像誘導のアウトラインリファインメント後処理に大きく依存している。
このように、DeepVecFontによって合成されたベクトルグリフは、しばしば歪みやアーティファクトを含んでおり、人間によって設計された結果と競合することができない。
本稿では,DeepVecFontの強化版について,以下の3つの技術貢献を主眼として提案する。
まず,逐次データを処理し,ベクトルアウトラインの緩和表現を設計するためにrnnではなくトランスフォーマティブを採用し,長大および複雑なアウトラインを合成するモデルの能力と安定性を著しく改善した。
第2に,生成および対象のb\'ezier曲線や直線を正確に整列する制御点に加えて,補助点のサンプリングを提案する。
最後に、逐次生成プロセスにおけるエラーの蓄積を軽減するために、他のTransformerベースのデコーダに基づくコンテキストベースの自己精製モジュールを開発し、初期合成グリフのアーティファクトを除去する。
定性的かつ定量的な結果から,本手法は元々のdeepvecfontの持つ本質的問題を効果的に解決し,複雑な構造と多様なスタイルを持つ英語および中国語のベクトルフォントを生成する既存のアプローチを上回った。
関連論文リスト
- HFH-Font: Few-shot Chinese Font Synthesis with Higher Quality, Faster Speed, and Higher Resolution [17.977410216055024]
HFH-Fontは高解像度のグリフ画像を効率よく生成できる数ショットフォント合成法である。
プロのフォントデザイナーが手作業で作成したフォントに匹敵する品質の大規模な中国語のベクトルフォントを、初めて自動生成することができる。
論文 参考訳(メタデータ) (2024-10-09T02:30:24Z) - SuperSVG: Superpixel-based Scalable Vector Graphics Synthesis [66.44553285020066]
SuperSVGは、高速かつ高精度な画像ベクトル化を実現するスーパーピクセルベースのベクトル化モデルである。
本稿では,2段階の自己学習フレームワークを提案する。そこでは,粗い段階モデルを用いて主構造を再構築し,細部を充実させるために改良段階モデルを用いる。
再現精度と推定時間の観点から, 最先端手法と比較して, 提案手法の優れた性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-06-14T07:43:23Z) - Texture, Shape and Order Matter: A New Transformer Design for Sequential DeepFake Detection [57.100891917805086]
シーケンシャルディープフェイク検出は、順番に操作シーケンスを予測する新しいタスクである。
本稿では, テクスチャ, 形状, 操作順序の3つの視点を探索し, TSOM と呼ばれる新しいトランスフォーマーの設計について述べる。
論文 参考訳(メタデータ) (2024-04-22T04:47:52Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - DualVector: Unsupervised Vector Font Synthesis with Dual-Part
Representation [43.64428946288288]
現在のフォント合成法では、形状を簡潔に表現できないか、訓練中にベクトル監督を必要とする。
ベクトルグリフに対する新しい双対表現を提案し、各グリフは閉「正」経路対と「負」経路対の集合としてモデル化される。
我々の手法はDual-of-Font-artと呼ばれ、最先端の手法よりも実用性が高い。
論文 参考訳(メタデータ) (2023-05-17T08:18:06Z) - VecFontSDF: Learning to Reconstruct and Synthesize High-quality Vector
Fonts via Signed Distance Functions [15.47282857047361]
本稿では,高品質なベクトルフォントの再構成と合成を行うために,エンドツーエンドのトレーニング可能なVecFontSDFを提案する。
提案したSDFに基づく暗黙的形状表現に基づいて、VecFontSDFは、各グリフを複数のパラボラ曲線で囲まれた形状プリミティブとしてモデル化することを学ぶ。
論文 参考訳(メタデータ) (2023-03-22T16:14:39Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - FontTransformer: Few-shot High-resolution Chinese Glyph Image Synthesis
via Stacked Transformers [21.705680113996742]
本稿では,高精度な中国語グリフ画像合成のための新しい数ショット学習モデルであるFontTransformerを提案する。
また、よりグリフ情報と事前知識をモデルに供給する新しい符号化方式を設計する。
論文 参考訳(メタデータ) (2022-10-12T15:09:22Z) - DeepVecFont: Synthesizing High-quality Vector Fonts via Dual-modality
Learning [21.123297001902177]
本稿では,ベクトルグリフを生成するための新しい手法であるDeepVecFontを提案する。
まず、フォントのイメージ・アスペクトとシーケンス・アスペクトの両特徴を利用してベクトルグリフを合成する双対モダリティ学習戦略を設計する。
第2に、非構造化データ(例えばベクトルグリフ)をランダムにサンプリングして、生成した構造化データのガイダンスの下でさらに洗練された最適なデータを得る、新しい生成パラダイムを提供する。
論文 参考訳(メタデータ) (2021-10-13T12:57:19Z) - Text Compression-aided Transformer Encoding [77.16960983003271]
本稿では,トランスフォーマーのエンコーディングを強化するために,明示的で暗黙的なテキスト圧縮手法を提案する。
バックボーン情報、つまり入力テキストのgistは、特に焦点を当てていません。
評価の結果,提案した明示的かつ暗黙的なテキスト圧縮手法は,強いベースラインと比較して結果を改善することがわかった。
論文 参考訳(メタデータ) (2021-02-11T11:28:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。