論文の概要: Design What You Desire: Icon Generation from Orthogonal Application and
Theme Labels
- arxiv url: http://arxiv.org/abs/2208.00439v1
- Date: Sun, 31 Jul 2022 14:18:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:54:37.435723
- Title: Design What You Desire: Icon Generation from Orthogonal Application and
Theme Labels
- Title(参考訳): 望むものをデザインする: 直交アプリケーションとテーマラベルからのアイコン生成
- Authors: Yinpeng Chen, Zhiyu Pan, Min Shi, Hao Lu, Zhiguo Cao, Weicai Zhong
- Abstract要約: GAN(Generative Adversarial Network)は、顔生成やイメージスタイルの転送といった素晴らしいアートワークを作成するために訓練されている。
本稿では,希望するモバイルアプリケーションやテーマスタイルをカスタマイズ可能なアイコンの自動生成という,現実的なビジネスシナリオに焦点を当てる。
- 参考スコア(独自算出の注目度): 36.88787098668185
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative adversarial networks (GANs) have been trained to be professional
artists able to create stunning artworks such as face generation and image
style transfer. In this paper, we focus on a realistic business scenario:
automated generation of customizable icons given desired mobile applications
and theme styles. We first introduce a theme-application icon dataset, termed
AppIcon, where each icon has two orthogonal theme and app labels. By
investigating a strong baseline StyleGAN2, we observe mode collapse caused by
the entanglement of the orthogonal labels. To solve this challenge, we propose
IconGAN composed of a conditional generator and dual discriminators with
orthogonal augmentations, and a contrastive feature disentanglement strategy is
further designed to regularize the feature space of the two discriminators.
Compared with other approaches, IconGAN indicates a superior advantage on the
AppIcon benchmark. Further analysis also justifies the effectiveness of
disentangling app and theme representations. Our project will be released at:
https://github.com/architect-road/IconGAN.
- Abstract(参考訳): generative adversarial networks (gans) は、顔生成や画像転送といった素晴らしいアートワークを制作できるプロのアーティストとして訓練されている。
本稿では,モバイルアプリケーションやテーマスタイルに応じたカスタマイズ可能なアイコンの自動生成という,現実的なビジネスシナリオに焦点を当てる。
まず、テーマ・アプリケーション・アイコンデータセット、すなわちappiconを紹介し、それぞれのアイコンは2つの直交テーマとアプリラベルを持つ。
強いベースラインであるstylegan2を調べることで,直交ラベルの絡み合いによるモード崩壊を観察した。
この課題を解決するために,条件付き生成器と直交する二重判別器からなるイコンガンを提案し,この2つの判別器の特徴空間を正則化するコントラスト的特徴不等角化戦略も考案した。
他のアプローチと比較して、IconGANはAppIconベンチマークの優位性を示している。
さらなる分析は、疎結合アプリとテーマ表現の有効性を正当化する。
私たちのプロジェクトは、https://github.com/architect-road/iconganでリリースされる予定です。
関連論文リスト
- Fine-Tuning Stable Diffusion XL for Stylistic Icon Generation: A Comparison of Caption Size [0.0]
安定拡散XLの微調整法について述べる。
また、“高品質”が何であるかを適切に定義することがいかに重要であるかも示します。
論文 参考訳(メタデータ) (2024-07-11T13:55:20Z) - iCONTRA: Toward Thematic Collection Design Via Interactive Concept
Transfer [16.35842298296878]
対話型Concept TRAnsferシステムであるiCONTRAを導入する。
iCONTRAは、経験豊富なデザイナーと初心者の両方が、創造的なデザインコンセプトを熱心に探求することを可能にする。
また、微調整モデルを必要としないゼロショット画像編集アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-13T17:48:39Z) - IconShop: Text-Guided Vector Icon Synthesis with Autoregressive
Transformers [35.9550310656242]
自動回帰変換器を用いたテキスト誘導ベクトルアイコン合成法であるIconShopを導入する。
IconShopは、既存の画像ベースや言語ベースの方法よりも優れたアイコン合成機能を備えている。
論文 参考訳(メタデータ) (2023-04-27T17:58:02Z) - T-Person-GAN: Text-to-Person Image Generation with Identity-Consistency
and Manifold Mix-Up [16.165889084870116]
テキストのみに条件付けされた高解像度の人物画像を生成するためのエンドツーエンドアプローチを提案する。
2つの新しいメカニズムで人物画像を生成するための効果的な生成モデルを開発する。
論文 参考訳(メタデータ) (2022-08-18T07:41:02Z) - Spatially Multi-conditional Image Generation [80.04130168156792]
本稿では,マルチ条件画像生成の問題に対処する新しいニューラルアーキテクチャを提案する。
提案手法は, 利用可能なラベルを入力トークンとして受信する, 画素単位のトランスフォーマー型アーキテクチャを用いる。
3つのベンチマークデータセットに対する実験により,提案手法の最先端および比較ベースラインに対する明らかな優位性を示した。
論文 参考訳(メタデータ) (2022-03-25T17:57:13Z) - Cross-View Panorama Image Synthesis [68.35351563852335]
PanoGANは、新しい敵対的フィードバックGANフレームワークである。
PanoGANは、最先端のアプローチよりもより説得力のある、高品質なパノラマ画像生成を可能にする。
論文 参考訳(メタデータ) (2022-03-22T15:59:44Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - TCIC: Theme Concepts Learning Cross Language and Vision for Image
Captioning [50.30918954390918]
テーマの概念を取り入れたテーマコンセプト拡張画像キャプタリングフレームワークを提案する。
画像とキャプションの両方からテーマ概念が学習可能であることを考慮し,TTNに基づく表現学習のための2つの設定を提案する。
論文 参考訳(メタデータ) (2021-06-21T09:12:55Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Iconify: Converting Photographs into Icons [21.39168227994792]
CycleGANはアイコンのような画像を生成するための十分な抽象化と単純化能力を学ぶ。
いくつかの画像データセットを用いた実験により、CycleGANはアイコンのような画像を生成するのに十分な抽象化と単純化能力があることが証明された。
論文 参考訳(メタデータ) (2020-04-07T08:01:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。