論文の概要: Embedding Font Impression Word Tags Based on Co-occurrence
- arxiv url: http://arxiv.org/abs/2508.18825v1
- Date: Tue, 26 Aug 2025 09:02:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.768128
- Title: Embedding Font Impression Word Tags Based on Co-occurrence
- Title(参考訳): 共起に基づくフォント印象語タグの埋め込み
- Authors: Yugo Kubota, Seiichi Uchida,
- Abstract要約: 異なるフォントスタイルは異なる印象を伝達し、フォントの形状とそれらの印象を記述する単語タグの密接な関係を示す。
本稿では,これらの形状印象関係を利用した印象タグの埋め込み手法を提案する。
- 参考スコア(独自算出の注目度): 7.312180925669324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Different font styles (i.e., font shapes) convey distinct impressions, indicating a close relationship between font shapes and word tags describing those impressions. This paper proposes a novel embedding method for impression tags that leverages these shape-impression relationships. For instance, our method assigns similar vectors to impression tags that frequently co-occur in order to represent impressions of fonts, whereas standard word embedding methods (e.g., BERT and CLIP) yield very different vectors. This property is particularly useful for impression-based font generation and font retrieval. Technically, we construct a graph whose nodes represent impression tags and whose edges encode co-occurrence relationships. Then, we apply spectral embedding to obtain the impression vectors for each tag. We compare our method with BERT and CLIP in qualitative and quantitative evaluations, demonstrating that our approach performs better in impression-guided font generation.
- Abstract(参考訳): 異なるフォントスタイル(フォントの形状)は異なる印象を伝達し、フォントの形状とそれらの印象を記述する単語タグの密接な関係を示す。
本稿では,これらの形状印象関係を利用した印象タグの埋め込み手法を提案する。
例えば、フォントの印象を表すためにしばしば共起する印象タグに類似したベクトルを割り当てる一方、標準的な単語埋め込み手法(例えばBERTやCLIP)では、全く異なるベクトルを生成する。
この特性は印象に基づくフォント生成とフォント検索に特に有用である。
技術的には、ノードが印象タグを表現し、エッジが共起関係を符号化するグラフを構築する。
次に、各タグに対する印象ベクトルを得るためにスペクトル埋め込みを適用する。
本手法とBERTとCLIPを質的,定量的な評価で比較し,印象誘導フォント生成における提案手法の有効性を実証した。
関連論文リスト
- GRIF-DM: Generation of Rich Impression Fonts using Diffusion Models [18.15911470339845]
我々は、特定の印象を鮮明に具現化するフォントを生成するための拡散法である「usmethod」を導入する。
MyFontsデータセットを用いて,本手法が現実的で活気があり,高忠実なフォントを生成可能であることを確認した。
論文 参考訳(メタデータ) (2024-08-14T02:26:46Z) - Impression-CLIP: Contrastive Shape-Impression Embedding for Fonts [7.542892664684078]
CLIP(Contrastive Language- Image Pre-training)に基づく新しい機械学習モデルであるImpression-CLIPを提案する。
実験では,共埋め込みによるフォントと印象間の相互モーダル検索を行った。
その結果,Impression-CLIPは最先端手法よりも精度が高いことがわかった。
論文 参考訳(メタデータ) (2024-02-26T07:07:18Z) - Font Impression Estimation in the Wild [7.542892664684078]
フォントインプレッションに関するアノテーションを備えたフォントデータセットと、このタスクのための畳み込みニューラルネットワーク(CNN)フレームワークを使用する。
本稿では,入力画像に類似したフォントの印象をアンサンブルする戦略に依拠した,模範的な印象推定手法を提案する。
そこで本研究では,書籍のジャンルとフォント印象の相関分析を行った。
論文 参考訳(メタデータ) (2024-02-23T10:00:25Z) - Few-shot Font Generation by Learning Style Difference and Similarity [84.76381937516356]
異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
論文 参考訳(メタデータ) (2023-01-24T13:57:25Z) - Dual-Perspective Semantic-Aware Representation Blending for Multi-Label
Image Recognition with Partial Labels [70.36722026729859]
本稿では,多粒度カテゴリ固有の意味表現を異なる画像にブレンドした,二重パースペクティブな意味認識表現ブレンディング(DSRB)を提案する。
提案したDSは、すべての比率ラベル設定において、最先端のアルゴリズムを一貫して上回っている。
論文 参考訳(メタデータ) (2022-05-26T00:33:44Z) - Font Generation with Missing Impression Labels [15.228202509283248]
本稿では,欠落した印象ラベルに対して頑健なフォント生成モデルを提案する。
提案手法の主な考え方は,(1)共起型ラベル推定器と(2)印象ラベル空間圧縮器である。
定性的,定量的な評価により,ラベルを欠いた多ラベルデータを用いて高品質なフォント画像を生成することを実証した。
論文 参考訳(メタデータ) (2022-03-19T16:02:54Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - Shared Latent Space of Font Shapes and Impressions [9.205278113241473]
フォント形状のイメージとその印象語がクロスモーダルな方法で埋め込まれた共有潜在空間を実現する。
この潜在空間は、スタイル印象相関を理解し、複数の印象語を指定してフォント画像を生成するのに有用である。
論文 参考訳(メタデータ) (2021-03-23T06:54:45Z) - Let Me Choose: From Verbal Context to Font Selection [50.293897197235296]
フォントの視覚的属性と典型的に適用されるテキストの言語的文脈との関係を学習することを目的としている。
我々は、クラウドソーシングを通じてラベル付けされたソーシャルメディア投稿や広告で、さまざまなトピックの例を含む、新しいデータセットを紹介した。
論文 参考訳(メタデータ) (2020-05-03T17:36:17Z) - Hierarchical Image Classification using Entailment Cone Embeddings [68.82490011036263]
まずラベル階層の知識を任意のCNNベースの分類器に注入する。
画像からの視覚的セマンティクスと組み合わせた外部セマンティクス情報の利用が全体的な性能を高めることを実証的に示す。
論文 参考訳(メタデータ) (2020-04-02T10:22:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。