論文の概要: Font Impression Estimation in the Wild
- arxiv url: http://arxiv.org/abs/2402.15236v1
- Date: Fri, 23 Feb 2024 10:00:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 15:03:28.402695
- Title: Font Impression Estimation in the Wild
- Title(参考訳): 野生におけるフォント印象推定
- Authors: Kazuki Kitajima, Daichi Haraguchi, Seiichi Uchida
- Abstract要約: フォントインプレッションに関するアノテーションを備えたフォントデータセットと、このタスクのための畳み込みニューラルネットワーク(CNN)フレームワークを使用する。
本稿では,入力画像に類似したフォントの印象をアンサンブルする戦略に依拠した,模範的な印象推定手法を提案する。
そこで本研究では,書籍のジャンルとフォント印象の相関分析を行った。
- 参考スコア(独自算出の注目度): 7.542892664684078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the challenging task of estimating font impressions from
real font images. We use a font dataset with annotation about font impressions
and a convolutional neural network (CNN) framework for this task. However,
impressions attached to individual fonts are often missing and noisy because of
the subjective characteristic of font impression annotation. To realize stable
impression estimation even with such a dataset, we propose an exemplar-based
impression estimation approach, which relies on a strategy of ensembling
impressions of exemplar fonts that are similar to the input image. In addition,
we train CNN with synthetic font images that mimic scanned word images so that
CNN estimates impressions of font images in the wild. We evaluate the basic
performance of the proposed estimation method quantitatively and qualitatively.
Then, we conduct a correlation analysis between book genres and font
impressions on real book cover images; it is important to note that this
analysis is only possible with our impression estimation method. The analysis
reveals various trends in the correlation between them - this fact supports a
hypothesis that book cover designers carefully choose a font for a book cover
considering the impression given by the font.
- Abstract(参考訳): 本稿では,実際のフォント画像からフォント印象を推定する課題について述べる。
このタスクにはフォントインプレッションに関するアノテーション付きフォントデータセットと畳み込みニューラルネットワーク(cnn)フレームワークを使用します。
しかし、個々のフォントに付随する印象は、フォント印象アノテーションの主観的特徴のため、しばしば欠落しうる。
このようなデータセットであっても安定した印象推定を実現するために,入力画像に類似したフォントの印象をアンサンブルする戦略に依存する,模範的な印象推定手法を提案する。
さらに,スキャンされた単語画像を模倣した合成フォント画像を用いてcnnを訓練し,野生のフォント画像の印象をcnnが推定する。
提案手法の基本性能を定量的に定量的に評価した。
次に本書カバー画像における本ジャンルとフォント印象の相関分析を行い,本分析は印象推定法でのみ可能であることに留意する必要がある。
この事実は、ブックカバーデザイナーがフォントが与える印象を考慮して、ブックカバーのフォントを慎重に選択する、という仮説を支持している。
関連論文リスト
- GRIF-DM: Generation of Rich Impression Fonts using Diffusion Models [18.15911470339845]
我々は、特定の印象を鮮明に具現化するフォントを生成するための拡散法である「usmethod」を導入する。
MyFontsデータセットを用いて,本手法が現実的で活気があり,高忠実なフォントを生成可能であることを確認した。
論文 参考訳(メタデータ) (2024-08-14T02:26:46Z) - Towards Retrieval-Augmented Architectures for Image Captioning [81.11529834508424]
本研究は,外部kNNメモリを用いた画像キャプションモデルの構築に向けた新しい手法を提案する。
具体的には、視覚的類似性に基づく知識検索コンポーネントを組み込んだ2つのモデル変種を提案する。
我々はCOCOデータセットとnocapsデータセットに対する我々のアプローチを実験的に検証し、明示的な外部メモリを組み込むことでキャプションの品質を著しく向上させることができることを示した。
論文 参考訳(メタデータ) (2024-05-21T18:02:07Z) - Impression-CLIP: Contrastive Shape-Impression Embedding for Fonts [7.542892664684078]
CLIP(Contrastive Language- Image Pre-training)に基づく新しい機械学習モデルであるImpression-CLIPを提案する。
実験では,共埋め込みによるフォントと印象間の相互モーダル検索を行った。
その結果,Impression-CLIPは最先端手法よりも精度が高いことがわかった。
論文 参考訳(メタデータ) (2024-02-26T07:07:18Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - Generating More Pertinent Captions by Leveraging Semantics and Style on
Multi-Source Datasets [56.018551958004814]
本稿では,データソースの非一様結合をトレーニングすることで,流動的な記述を生成するタスクに対処する。
ノイズの多い画像とテキストのペアを持つ大規模データセットは、サブ最適の監視源を提供する。
本稿では,検索コンポーネントから抽出したスタイルトークンとキーワードを組み込むことにより,セマンティクスと記述スタイルを活用・分離することを提案する。
論文 参考訳(メタデータ) (2021-11-24T19:00:05Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z) - Font Style that Fits an Image -- Font Generation Based on Image Context [7.646713951724013]
本論文では,書籍の表紙内のコンテキストに基づいて,書籍のタイトル画像を生成する手法を提案する。
本稿では,本表紙,目標位置マスク,所望の書籍タイトルを入力し,その表紙に適した文を出力するエンド・ツー・エンドニューラルネットワークを提案する。
提案手法は,定量的かつ定性的な結果によって,本文を効果的に生成できることを実証する。
論文 参考訳(メタデータ) (2021-05-19T01:53:04Z) - Which Parts determine the Impression of the Font? [0.0]
様々なフォントは、レグレッシブル、ラフ、コミックテキストなど様々な印象を与える。
文字全体の形状ではなく、局所的な形状に焦点を合わせることで、文字型の独立でより一般的な分析を実現できます。
論文 参考訳(メタデータ) (2021-03-26T02:13:24Z) - Shared Latent Space of Font Shapes and Impressions [9.205278113241473]
フォント形状のイメージとその印象語がクロスモーダルな方法で埋め込まれた共有潜在空間を実現する。
この潜在空間は、スタイル印象相関を理解し、複数の印象語を指定してフォント画像を生成するのに有用である。
論文 参考訳(メタデータ) (2021-03-23T06:54:45Z) - Intrinsic Image Captioning Evaluation [53.51379676690971]
I2CE(Intrinsic Image Captioning Evaluation)と呼ばれる画像キャプションのための学習ベースメトリクスを提案する。
実験の結果,提案手法は頑健な性能を維持し,意味的類似表現やアライメントの少ない意味論に遭遇した場合,候補キャプションに対してより柔軟なスコアを与えることができた。
論文 参考訳(メタデータ) (2020-12-14T08:36:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。