論文の概要: Typography-MNIST (TMNIST): an MNIST-Style Image Dataset to Categorize
Glyphs and Font-Styles
- arxiv url: http://arxiv.org/abs/2202.08112v1
- Date: Sat, 12 Feb 2022 21:01:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 07:08:01.451981
- Title: Typography-MNIST (TMNIST): an MNIST-Style Image Dataset to Categorize
Glyphs and Font-Styles
- Title(参考訳): Typography-MNIST (TMNIST): グリフとフォントを分類するMNISTスタイルの画像データセット
- Authors: Nimish Magre, Nicholas Brown
- Abstract要約: グリフリストには、記号集合を持つ現代および歴史的言語スクリプトの150以上の共通文字が含まれている。
このデータセットはCognitiveTypeプロジェクトの一部として開発されており、型から認識へのリアルタイムマッピングのためのアイトラッキングツールの開発を目指している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Typography-MNIST (TMNIST), a dataset comprising of 565,292
MNIST-style grayscale images representing 1,812 unique glyphs in varied styles
of 1,355 Google-fonts. The glyph-list contains common characters from over 150
of the modern and historical language scripts with symbol sets, and each
font-style represents varying subsets of the total unique glyphs. The dataset
has been developed as part of the CognitiveType project which aims to develop
eye-tracking tools for real-time mapping of type to cognition and to create
computational tools that allow for the easy design of typefaces with cognitive
properties such as readability. The dataset and scripts to generate MNIST-style
images for glyphs in different font styles are freely available at
https://github.com/aiskunks/CognitiveType.
- Abstract(参考訳): タイポグラフィmnist (tmnist) は,google-fonts の様々なスタイルで 1,812 のユニークなグリフを表す 565,292 mnist スタイルのグレースケール画像からなるデータセットである。
グリフリストには、記号集合を持つ現代および歴史的言語スクリプトの150以上の共通文字が含まれており、各フォントスタイルは、全固有のグリフの様々なサブセットを表す。
このデータセットはCognitiveTypeプロジェクトの一部として開発され、型から認識へのリアルタイムマッピングのためのアイトラッキングツールの開発と、可読性などの認知特性を備えたフォントを簡単に設計できる計算ツールの開発を目指している。
異なるフォントスタイルのグリフ用のMNISTスタイルの画像を生成するデータセットとスクリプトは、https://github.com/aiskunks/CognitiveTypeで無料で入手できる。
関連論文リスト
- JoyType: A Robust Design for Multilingual Visual Text Creation [14.441897362967344]
複数言語によるビジュアルテキスト作成のための新しい手法JoyTypeを紹介した。
JoyTypeは、画像生成プロセス中にテキストのフォントスタイルを維持するように設計されている。
実測値と精度の両面から評価した結果,JoyTypeが既存の最先端手法を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-09-26T04:23:17Z) - FontCLIP: A Semantic Typography Visual-Language Model for Multilingual
Font Applications [27.609008096617057]
FontCLIPは、大きな視覚言語モデルの意味的理解とタイポグラフィー的知識を結びつけるモデルである。
タイポグラフィー固有の知識を事前学習したCLIPモデルの包括的視覚言語知識に統合する。
FontCLIPの双対モダリティと一般化能力は多言語・多言語フォントの検索と文字形状の最適化を可能にする。
論文 参考訳(メタデータ) (2024-03-11T06:08:16Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - Few-shot Font Generation by Learning Style Difference and Similarity [84.76381937516356]
異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
論文 参考訳(メタデータ) (2023-01-24T13:57:25Z) - Few-Shot Font Generation by Learning Fine-Grained Local Styles [90.39288370855115]
フラッシュショットフォント生成(FFG)は、いくつかの例で新しいフォントを生成することを目的としている。
提案手法は,1)参照からきめ細かな局所スタイルを学習し,2)コンテンツと参照グリフの空間的対応を学習するフォント生成手法である。
論文 参考訳(メタデータ) (2022-05-20T05:07:05Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z) - Few-Shot Font Generation with Deep Metric Learning [33.12829580813688]
提案するフレームワークは、スタイルエンコーダにディープメトリック学習を導入している。
白黒フォントと形状識別フォントのデータセットを用いて実験を行った。
論文 参考訳(メタデータ) (2020-11-04T10:12:10Z) - Multiform Fonts-to-Fonts Translation via Style and Content Disentangled
Representations of Chinese Character [10.236778478360614]
本研究の目的は,文字の内容とスタイルを抽出・再結合できるネットワークフレームワークを設計することである。
本稿では、畳み込みニューラルネットワーク、多層パーセプトロン、残留ネットワークなどの様々な深度ネットワークを組み合わせて最適モデルを求める。
その結果、構造類似度指数とピーク信号対雑音比評価基準を用いて、生成した文字が実際の文字に非常に近いことを示す。
論文 参考訳(メタデータ) (2020-03-28T04:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。