論文の概要: Learning Perceptual Manifold of Fonts
- arxiv url: http://arxiv.org/abs/2106.09198v1
- Date: Thu, 17 Jun 2021 01:22:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-19 06:37:38.841028
- Title: Learning Perceptual Manifold of Fonts
- Title(参考訳): フォントの知覚的マニフォールド学習
- Authors: Haoran Xie and Yuki Fujita and Kazunori Miyata
- Abstract要約: 本稿では,フォント生成モデルの潜在空間における知覚的調整を可視化するために,フォントの知覚多様体を提案する。
本研究における従来のユーザインタフェースとは対照的に,フォント探索型ユーザインタフェースは,指定されたユーザ嗜好に対して効率的かつ有効である。
- 参考スコア(独自算出の注目度): 7.395615703126767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Along the rapid development of deep learning techniques in generative models,
it is becoming an urgent issue to combine machine intelligence with human
intelligence to solve the practical applications. Motivated by this
methodology, this work aims to adjust the machine generated character fonts
with the effort of human workers in the perception study. Although numerous
fonts are available online for public usage, it is difficult and challenging to
generate and explore a font to meet the preferences for common users. To solve
the specific issue, we propose the perceptual manifold of fonts to visualize
the perceptual adjustment in the latent space of a generative model of fonts.
In our framework, we adopt the variational autoencoder network for the font
generation. Then, we conduct a perceptual study on the generated fonts from the
multi-dimensional latent space of the generative model. After we obtained the
distribution data of specific preferences, we utilize manifold learning
approach to visualize the font distribution. In contrast to the conventional
user interface in our user study, the proposed font-exploring user interface is
efficient and helpful in the designated user preference.
- Abstract(参考訳): 生成モデルにおける深層学習技術の急速な発展とともに、機械学習と人間の知性を組み合わせて現実的な応用を解決することが緊急の課題となっている。
本研究は,人間の作業者による知覚研究の努力により,機械が生成した文字フォントを調整することを目的としている。
多くのフォントがオンラインで公開されているが、一般ユーザーの好みに合わせてフォントを生成・探索することは困難かつ困難である。
そこで本研究では,フォント生成モデルの潜在空間における知覚調整を可視化するために,フォントの知覚多様体を提案する。
本フレームワークでは,フォント生成のための変分オートエンコーダネットワークを採用する。
次に、生成モデルの多次元潜在空間から生成されたフォントについて知覚的研究を行う。
特定の好みの分布データを得た後,多様体学習手法を用いてフォント分布を可視化する。
従来のユーザインタフェースとは対照的に,提案するフォント探索型ユーザインタフェースは,指定したユーザ嗜好において効率的かつ有用である。
関連論文リスト
- GLDesigner: Leveraging Multi-Modal LLMs as Designer for Enhanced Aesthetic Text Glyph Layouts [53.568057283934714]
コンテンツ対応のテキストロゴレイアウトを生成するVLMベースのフレームワークを提案する。
本稿では,複数のグリフ画像の同時処理における計算量を削減するための2つのモデル手法を提案する。
アウトモデルのインストラクションチューニングを支援するために,既存の公開データセットよりも5倍大きい2つの拡張テキストロゴデータセットを構築した。
論文 参考訳(メタデータ) (2024-11-18T10:04:10Z) - GRIF-DM: Generation of Rich Impression Fonts using Diffusion Models [18.15911470339845]
我々は、特定の印象を鮮明に具現化するフォントを生成するための拡散法である「usmethod」を導入する。
MyFontsデータセットを用いて,本手法が現実的で活気があり,高忠実なフォントを生成可能であることを確認した。
論文 参考訳(メタデータ) (2024-08-14T02:26:46Z) - FontStudio: Shape-Adaptive Diffusion Model for Coherent and Consistent Font Effect Generation [38.730628018627975]
本研究の目的は,多言語フォントにおけるテキストエフェクトの生成である。
与えられた形状を解釈できる新しい形状適応拡散モデルを提案する。
また、生成した参照文字から他へテクスチャを転送するための学習不要な形状適応型エフェクト転送手法を提案する。
論文 参考訳(メタデータ) (2024-06-12T16:43:47Z) - Multimodal Large Language Model is a Human-Aligned Annotator for Text-to-Image Generation [87.50120181861362]
VisionPreferは高品質できめ細かい選好データセットで、複数の選好面をキャプチャする。
我々は、VisionPrefer上で報酬モデルVP-Scoreをトレーニングし、テキストから画像への生成モデルのトレーニングを指導し、VP-Scoreの嗜好予測精度は人間のアノテーションに匹敵する。
論文 参考訳(メタデータ) (2024-04-23T14:53:15Z) - Diff-Font: Diffusion Model for Robust One-Shot Font Generation [110.45944936952309]
Diff-Fontという拡散モデルに基づく新しいワンショットフォント生成手法を提案する。
提案するモデルは,フォントライブラリ全体を生成することを目的として,参照として1つのサンプルのみを与える。
十分に訓練されたDiff-Fontは、フォントギャップやフォントのバリエーションに対して堅牢であるだけでなく、難しい文字生成において有望なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-12T13:51:50Z) - FontNet: Closing the gap to font designer performance in font synthesis [3.991334489146843]
本稿では,フォント間の距離がフォント類似度と直接対応するような埋め込み空間において,フォントスタイルの分離を学習するFontNetというモデルを提案する。
我々は,任意の言語システムに適用可能なネットワークアーキテクチャと訓練手順を設計し,高解像度フォント画像を生成する。
論文 参考訳(メタデータ) (2022-05-13T08:37:10Z) - Scalable Font Reconstruction with Dual Latent Manifolds [55.29525824849242]
タイポグラフィー解析とフォント再構成を行う深層生成モデルを提案する。
このアプローチによって、効果的にモデル化できるキャラクタの種類を大規模にスケールアップすることが可能になります。
多くの言語の文字タイプを表す様々なデータセット上でフォント再構成のタスクを評価する。
論文 参考訳(メタデータ) (2021-09-10T20:37:43Z) - A Multi-Implicit Neural Representation for Fonts [79.6123184198301]
エッジやコーナーのようなフォント固有の不連続性は、ニューラルネットワークを使って表現することが難しい。
そこで我々は,フォントを文順に表現するためのtextitmulti-implicitsを導入する。
論文 参考訳(メタデータ) (2021-06-12T21:40:11Z) - AdaptiFont: Increasing Individuals' Reading Speed with a Generative Font
Model and Bayesian Optimization [3.480626767752489]
AdaptiFontは、モニターに表示されるテキストの読みやすさをインタラクティブに向上することを目的とした、ループ内の人間システムである。
我々は,能動的学習によって新しい真型フォントを生成し,新しいフォントでテキストをレンダリングし,個々のユーザの読書速度を測定する。
ユーザ調査の結果,この適応フォント生成システムは,高い読解速度に対応するフォント空間の領域を見出し,これらのフォントが参加者の読解速度を大幅に増加させ,各読者間でフォントが著しく異なることがわかった。
論文 参考訳(メタデータ) (2021-04-21T19:56:28Z) - Let Me Choose: From Verbal Context to Font Selection [50.293897197235296]
フォントの視覚的属性と典型的に適用されるテキストの言語的文脈との関係を学習することを目的としている。
我々は、クラウドソーシングを通じてラベル付けされたソーシャルメディア投稿や広告で、さまざまなトピックの例を含む、新しいデータセットを紹介した。
論文 参考訳(メタデータ) (2020-05-03T17:36:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。