論文の概要: Character-independent font identification
- arxiv url: http://arxiv.org/abs/2001.08893v1
- Date: Fri, 24 Jan 2020 05:59:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 05:16:19.438503
- Title: Character-independent font identification
- Title(参考訳): 文字非依存フォント識別
- Authors: Daichi Haraguchi, Shota Harada, Brian Kenji Iwana, Yuto Shinahara,
Seiichi Uchida
- Abstract要約: 2文字が同一フォントであるか否かを判定する手法を提案する。
我々は様々なフォントイメージペアで訓練された畳み込みニューラルネットワーク(CNN)を用いる。
次に、ネットワークに見つからないフォントの異なるセットでモデルを評価する。
- 参考スコア(独自算出の注目度): 11.86456063377268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are a countless number of fonts with various shapes and styles. In
addition, there are many fonts that only have subtle differences in features.
Due to this, font identification is a difficult task. In this paper, we propose
a method of determining if any two characters are from the same font or not.
This is difficult due to the difference between fonts typically being smaller
than the difference between alphabet classes. Additionally, the proposed method
can be used with fonts regardless of whether they exist in the training or not.
In order to accomplish this, we use a Convolutional Neural Network (CNN)
trained with various font image pairs. In the experiment, the network is
trained on image pairs of various fonts. We then evaluate the model on a
different set of fonts that are unseen by the network. The evaluation is
performed with an accuracy of 92.27%. Moreover, we analyzed the relationship
between character classes and font identification accuracy.
- Abstract(参考訳): 様々な形や様式のフォントは数え切れないほどある。
さらに、機能に微妙な違いしか持たないフォントも数多く存在する。
このため、フォントの識別は難しい作業である。
本稿では,2文字が同一フォントであるか否かを判定する手法を提案する。
フォントの違いは典型的にはアルファベットのクラスの違いよりも小さいため、これは難しい。
また,本手法は,訓練中の有無にかかわらず,フォントで使用することができる。
これを実現するために、さまざまなフォントイメージペアで訓練された畳み込みニューラルネットワーク(CNN)を用いる。
実験では、ネットワークは様々なフォントの画像ペアで訓練される。
次に,ネットワークでは認識できないフォントの異なるセットでモデルを評価する。
評価は92.27%の精度で行われる。
さらに,文字クラスとフォント識別精度の関係を分析した。
関連論文リスト
- VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - Combining OCR Models for Reading Early Modern Printed Books [2.839401411131008]
我々は,15世紀から18世紀にかけて印刷された書籍において,OCR上でのきめ細かいフォント認識の利用について検討した。
我々はOCRの性能がフォントスタイルに強く影響していることを示し、フォント群認識による微調整モデルの選択は結果に非常に良い影響を与えることを示した。
論文 参考訳(メタデータ) (2023-05-11T20:43:50Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - Few-shot Font Generation by Learning Style Difference and Similarity [84.76381937516356]
異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
論文 参考訳(メタデータ) (2023-01-24T13:57:25Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Font Representation Learning via Paired-glyph Matching [15.358456947574913]
本稿では,フォントスタイルを潜在空間に埋め込む新しいフォント表現学習手法を提案する。
フォントを他者から識別的に表現するために,マッチングに基づくフォント表現学習モデルを提案する。
フォント表現学習方式は,既存のフォント表現学習手法よりも優れた一般化性能が得られることを示す。
論文 参考訳(メタデータ) (2022-11-20T12:27:27Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z) - Attribute2Font: Creating Fonts You Want From Attributes [32.82714291856353]
Attribute2Fontは、属性値に基づいて条件付けられた任意の2つのフォント間でフォントスタイルの転送を実行するように訓練されている。
Attribute Attention Moduleと呼ばれる新しいユニットは、生成されたグリフ画像が顕著なフォント属性をより具体化するように設計されている。
論文 参考訳(メタデータ) (2020-05-16T04:06:53Z) - Multiform Fonts-to-Fonts Translation via Style and Content Disentangled
Representations of Chinese Character [10.236778478360614]
本研究の目的は,文字の内容とスタイルを抽出・再結合できるネットワークフレームワークを設計することである。
本稿では、畳み込みニューラルネットワーク、多層パーセプトロン、残留ネットワークなどの様々な深度ネットワークを組み合わせて最適モデルを求める。
その結果、構造類似度指数とピーク信号対雑音比評価基準を用いて、生成した文字が実際の文字に非常に近いことを示す。
論文 参考訳(メタデータ) (2020-03-28T04:30:00Z) - Neural Style Difference Transfer and Its Application to Font Generation [14.567067583556717]
フォントを自動生成する手法を導入する。
2つの異なるフォント間のフォントスタイルの違いを見つけ出し、ニューラルスタイル転送を用いて別のフォントに転送する。
論文 参考訳(メタデータ) (2020-01-21T03:32:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。