論文の概要: Contextual Font Recommendations based on User Intent
- arxiv url: http://arxiv.org/abs/2306.08188v1
- Date: Wed, 14 Jun 2023 01:15:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 20:56:06.424552
- Title: Contextual Font Recommendations based on User Intent
- Title(参考訳): ユーザの意図に基づく文脈フォント推薦
- Authors: Sanat Sharma, Jayant Kumar, Jing Zheng, Tracy Holloway King
- Abstract要約: 我々は、文脈的フォントレコメンデーションを提供するインテント駆動システムを構築した。
本システムは多言語テキスト入力を取り入れ,ユーザの意図に基づいて適切なフォントを推薦する。
この機能は、現在数百万のAdobe Expressユーザーが利用しており、CTRは25%である。
- 参考スコア(独自算出の注目度): 5.270634139689197
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Adobe Fonts has a rich library of over 20,000 unique fonts that Adobe users
utilize for creating graphics, posters, composites etc. Due to the nature of
the large library, knowing what font to select can be a daunting task that
requires a lot of experience. For most users in Adobe products, especially
casual users of Adobe Express, this often means choosing the default font
instead of utilizing the rich and diverse fonts available. In this work, we
create an intent-driven system to provide contextual font recommendations to
users to aid in their creative journey. Our system takes in multilingual text
input and recommends suitable fonts based on the user's intent. Based on user
entitlements, the mix of free and paid fonts is adjusted. The feature is
currently used by millions of Adobe Express users with a CTR of >25%.
- Abstract(参考訳): Adobe Fontsには2万以上のユニークなフォントのリッチライブラリがあり、Adobeユーザーがグラフィック、ポスター、コンポジットの作成に使っている。
大きなライブラリの性質から、どのフォントを選択するかを知ることは、多くの経験を必要とする大変な作業である。
多くのAdobe製品、特にAdobe Expressのカジュアルなユーザーにとって、これは利用可能なリッチで多様なフォントを使わずにデフォルトのフォントを選択することを意味することが多い。
本研究では,ユーザの創造的体験を支援するために,文脈的フォントレコメンデーションを提供する意図駆動システムを構築する。
本システムは多言語テキスト入力を取り入れ,ユーザの意図に基づいて適切なフォントを推薦する。
ユーザの権利に基づいて、無料フォントと有料フォントの混合が調整される。
この機能は、現在数百万のAdobe Expressユーザーが利用しており、CTRは25%である。
関連論文リスト
- GLDesigner: Leveraging Multi-Modal LLMs as Designer for Enhanced Aesthetic Text Glyph Layouts [53.568057283934714]
コンテンツ対応のテキストロゴレイアウトを生成するVLMベースのフレームワークを提案する。
本稿では,複数のグリフ画像の同時処理における計算量を削減するための2つのモデル手法を提案する。
アウトモデルのインストラクションチューニングを支援するために,既存の公開データセットよりも5倍大きい2つの拡張テキストロゴデータセットを構築した。
論文 参考訳(メタデータ) (2024-11-18T10:04:10Z) - VQ-Font: Few-Shot Font Generation with Structure-Aware Enhancement and
Quantization [52.870638830417]
本稿では,VQGANベースのフレームワーク(VQ-Font)を提案する。
具体的には、コードブック内でフォントトークンをカプセル化するために、VQGANを事前訓練する。その後、VQ-Fontは、合成したグリフをコードブックで洗練し、合成されたストロークと実世界のストロークのドメインギャップをなくす。
論文 参考訳(メタデータ) (2023-08-27T06:32:20Z) - Combining OCR Models for Reading Early Modern Printed Books [2.839401411131008]
我々は,15世紀から18世紀にかけて印刷された書籍において,OCR上でのきめ細かいフォント認識の利用について検討した。
我々はOCRの性能がフォントスタイルに強く影響していることを示し、フォント群認識による微調整モデルの選択は結果に非常に良い影響を与えることを示した。
論文 参考訳(メタデータ) (2023-05-11T20:43:50Z) - CF-Font: Content Fusion for Few-shot Font Generation [63.79915037830131]
本稿では、コンテンツ特徴をベースフォントのコンテンツ特徴によって定義される線形空間に投影するコンテンツ融合モジュール(CFM)を提案する。
提案手法では,参照画像のスタイル表現ベクトルの最適化も可能である。
我々は,6.5k文字の300フォントのデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-03-24T14:18:40Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z) - AdaptiFont: Increasing Individuals' Reading Speed with a Generative Font
Model and Bayesian Optimization [3.480626767752489]
AdaptiFontは、モニターに表示されるテキストの読みやすさをインタラクティブに向上することを目的とした、ループ内の人間システムである。
我々は,能動的学習によって新しい真型フォントを生成し,新しいフォントでテキストをレンダリングし,個々のユーザの読書速度を測定する。
ユーザ調査の結果,この適応フォント生成システムは,高い読解速度に対応するフォント空間の領域を見出し,これらのフォントが参加者の読解速度を大幅に増加させ,各読者間でフォントが著しく異なることがわかった。
論文 参考訳(メタデータ) (2021-04-21T19:56:28Z) - FONTNET: On-Device Font Understanding and Prediction Pipeline [1.5749416770494706]
フォント検出エンジンとフォント予測エンジンの2つのエンジンを提案する。
画像中のテキストのフォントスタイルを識別する新しいcnnアーキテクチャを開発した。
第2に、与えられたクエリフォントの類似フォントを予測するための新しいアルゴリズムを設計した。
第3に,インスタントメッセージングなどのリアルタイムアプリケーションにおいて,プライバシを確保し,レイテンシを改善するエンジンのオンデバイス全体を最適化し,デプロイしました。
論文 参考訳(メタデータ) (2021-03-30T08:11:24Z) - Few-shot Compositional Font Generation with Dual Memory [16.967987801167514]
我々は、新しいフォント生成フレームワークDual Memory-augmented Font Generation Network (DM-Font)を提案する。
我々は、構成性を活用するために、メモリコンポーネントとグローバルコンテキスト認識をジェネレータに採用する。
韓国手書きフォントとタイ手書きフォントの実験では,本手法が忠実なスタイリングによるサンプルの品質を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-05-21T08:13:40Z) - Character-independent font identification [11.86456063377268]
2文字が同一フォントであるか否かを判定する手法を提案する。
我々は様々なフォントイメージペアで訓練された畳み込みニューラルネットワーク(CNN)を用いる。
次に、ネットワークに見つからないフォントの異なるセットでモデルを評価する。
論文 参考訳(メタデータ) (2020-01-24T05:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。