論文の概要: Impressions2Font: Generating Fonts by Specifying Impressions
- arxiv url: http://arxiv.org/abs/2103.10036v1
- Date: Thu, 18 Mar 2021 06:10:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 14:02:12.419345
- Title: Impressions2Font: Generating Fonts by Specifying Impressions
- Title(参考訳): 印象2Font:印象の特定によるフォントの生成
- Authors: Seiya Matsuda, Akisato Kimura, Seiichi Uchida
- Abstract要約: 本稿では,印象のあるフォント画像を生成するImpressions2Font(Imp2Font)を提案する。
Imp2Fontはフォント画像を生成する条件として任意の数の印象語を受け入れる。
- 参考スコア(独自算出の注目度): 10.345810093530261
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Various fonts give us various impressions, which are often represented by
words. This paper proposes Impressions2Font (Imp2Font) that generates font
images with specific impressions. Imp2Font is an extended version of
conditional generative adversarial networks (GANs). More precisely, Imp2Font
accepts an arbitrary number of impression words as the condition to generate
the font images. These impression words are converted into a soft-constraint
vector by an impression embedding module built on a word embedding technique.
Qualitative and quantitative evaluations prove that Imp2Font generates font
images with higher quality than comparative methods by providing multiple
impression words or even unlearned words.
- Abstract(参考訳): 様々なフォントは様々な印象を与え、しばしば単語で表される。
本稿では,印象のあるフォント画像を生成するImpressions2Font(Imp2Font)を提案する。
imp2fontはconditional generative adversarial networks (gans)の拡張版である。
より正確には、Imp2Fontはフォント画像を生成する条件として任意の数の印象語を受け入れる。
これらの印象語は、単語埋め込み技術に基づいて構築された印象埋め込みモジュールによりソフト制約ベクトルに変換する。
定性的かつ定量的な評価は、Imp2Fontが複数の印象語や未学習語を提供することによって比較法よりも高品質なフォント画像を生成することを証明している。
関連論文リスト
- GRIF-DM: Generation of Rich Impression Fonts using Diffusion Models [18.15911470339845]
我々は、特定の印象を鮮明に具現化するフォントを生成するための拡散法である「usmethod」を導入する。
MyFontsデータセットを用いて,本手法が現実的で活気があり,高忠実なフォントを生成可能であることを確認した。
論文 参考訳(メタデータ) (2024-08-14T02:26:46Z) - Impression-CLIP: Contrastive Shape-Impression Embedding for Fonts [7.542892664684078]
CLIP(Contrastive Language- Image Pre-training)に基づく新しい機械学習モデルであるImpression-CLIPを提案する。
実験では,共埋め込みによるフォントと印象間の相互モーダル検索を行った。
その結果,Impression-CLIPは最先端手法よりも精度が高いことがわかった。
論文 参考訳(メタデータ) (2024-02-26T07:07:18Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - Combining OCR Models for Reading Early Modern Printed Books [2.839401411131008]
我々は,15世紀から18世紀にかけて印刷された書籍において,OCR上でのきめ細かいフォント認識の利用について検討した。
我々はOCRの性能がフォントスタイルに強く影響していることを示し、フォント群認識による微調整モデルの選択は結果に非常に良い影響を与えることを示した。
論文 参考訳(メタデータ) (2023-05-11T20:43:50Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z) - FONTNET: On-Device Font Understanding and Prediction Pipeline [1.5749416770494706]
フォント検出エンジンとフォント予測エンジンの2つのエンジンを提案する。
画像中のテキストのフォントスタイルを識別する新しいcnnアーキテクチャを開発した。
第2に、与えられたクエリフォントの類似フォントを予測するための新しいアルゴリズムを設計した。
第3に,インスタントメッセージングなどのリアルタイムアプリケーションにおいて,プライバシを確保し,レイテンシを改善するエンジンのオンデバイス全体を最適化し,デプロイしました。
論文 参考訳(メタデータ) (2021-03-30T08:11:24Z) - Attribute2Font: Creating Fonts You Want From Attributes [32.82714291856353]
Attribute2Fontは、属性値に基づいて条件付けられた任意の2つのフォント間でフォントスタイルの転送を実行するように訓練されている。
Attribute Attention Moduleと呼ばれる新しいユニットは、生成されたグリフ画像が顕著なフォント属性をより具体化するように設計されている。
論文 参考訳(メタデータ) (2020-05-16T04:06:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。