論文の概要: Using Robust Regression to Find Font Usage Trends
- arxiv url: http://arxiv.org/abs/2106.15232v1
- Date: Tue, 29 Jun 2021 10:29:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 15:26:31.947959
- Title: Using Robust Regression to Find Font Usage Trends
- Title(参考訳): ロバスト回帰を使ってフォントの使用傾向を見つける
- Authors: Kaigen Tsuji, Daichi Haraguchi, Seiichi Uchida, Brian Kenji Iwana
- Abstract要約: 映画のポスターは、公開日を用いて、時間を表すことができるので、このタスクのフォントのソースとして映画ポスターを使用します。
映画ポスターのフォントと時間の関係を理解するために,回帰畳み込みニューラルネットワーク(CNN)を用いて映画のリリース年を推定する。
課題の難しさから,Mean Squared Error(MSE)とTukeyの双重損失を組み合わせたハイブリッドトレーニングシステムを提案する。
- 参考スコア(独自算出の注目度): 7.646713951724013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fonts have had trends throughout their history, not only in when they were
invented but also in their usage and popularity. In this paper, we attempt to
specifically find the trends in font usage using robust regression on a large
collection of text images. We utilize movie posters as the source of fonts for
this task because movie posters can represent time periods by using their
release date. In addition, movie posters are documents that are carefully
designed and represent a wide range of fonts. To understand the relationship
between the fonts of movie posters and time, we use a regression Convolutional
Neural Network (CNN) to estimate the release year of a movie using an isolated
title text image. Due to the difficulty of the task, we propose to use of a
hybrid training regimen that uses a combination of Mean Squared Error (MSE) and
Tukey's biweight loss. Furthermore, we perform a thorough analysis on the
trends of fonts through time.
- Abstract(参考訳): フォントは、発明された時期だけでなく、その使用や人気においても、その歴史を通じてトレンドがあった。
本稿では,テキスト画像の大規模なコレクションにおいて,ロバスト回帰を用いてフォント使用傾向を具体的に把握しようとする。
映画のポスターは,その公開日を用いて,時間を表すことができるので,映画のポスターをフォントの源泉として活用する。
また、映画のポスターは、慎重にデザインされ、幅広いフォントを表現する文書である。
映画ポスターのフォントと時間の関係を理解するために,回帰畳み込みニューラルネットワーク(cnn)を用いて,分離したタイトルテキスト画像を用いて映画の公開年を推定する。
課題の難易度から,平均二乗誤差 (mse) とタキーの2重重損失の組合せを用いたハイブリッドトレーニング手法を提案する。
さらに、時間を通してフォントの傾向を徹底的に分析する。
関連論文リスト
- VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - Analyzing Font Style Usage and Contextual Factors in Real Images [12.387676601792899]
本稿では,大規模データセットを用いたフォントスタイル選択に影響を及ぼす可能性のあるフォントスタイルと文脈要因の関係を解析する。
オープン画像データセットの約80万語を用いてフォントスタイルとその周辺オブジェクト(バスなど)の関係を解析する。
論文 参考訳(メタデータ) (2023-06-21T06:43:22Z) - Combining OCR Models for Reading Early Modern Printed Books [2.839401411131008]
我々は,15世紀から18世紀にかけて印刷された書籍において,OCR上でのきめ細かいフォント認識の利用について検討した。
我々はOCRの性能がフォントスタイルに強く影響していることを示し、フォント群認識による微調整モデルの選択は結果に非常に良い影響を与えることを示した。
論文 参考訳(メタデータ) (2023-05-11T20:43:50Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Few-Shot Font Generation by Learning Fine-Grained Local Styles [90.39288370855115]
フラッシュショットフォント生成(FFG)は、いくつかの例で新しいフォントを生成することを目的としている。
提案手法は,1)参照からきめ細かな局所スタイルを学習し,2)コンテンツと参照グリフの空間的対応を学習するフォント生成手法である。
論文 参考訳(メタデータ) (2022-05-20T05:07:05Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - DG-Font: Deformable Generative Networks for Unsupervised Font Generation [14.178381391124036]
非監視フォント生成(DGFont)のための新しい変形可能な生成ネットワークを提案する。
本稿では,一対の変位マップを予測し,予測地図を用いてコンテンツエンコーダからの低レベル特徴マップに変形可能な畳み込みを適用する特徴変形スキップ接続(fdsc)を提案する。
実験により,本モデルが最先端手法よりも高品質な文字を生成することを実証した。
論文 参考訳(メタデータ) (2021-04-07T11:32:32Z) - Few-shot Compositional Font Generation with Dual Memory [16.967987801167514]
我々は、新しいフォント生成フレームワークDual Memory-augmented Font Generation Network (DM-Font)を提案する。
我々は、構成性を活用するために、メモリコンポーネントとグローバルコンテキスト認識をジェネレータに採用する。
韓国手書きフォントとタイ手書きフォントの実験では,本手法が忠実なスタイリングによるサンプルの品質を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-05-21T08:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。