論文の概要: Wallpaper Texture Generation and Style Transfer Based on Multi-label
Semantics
- arxiv url: http://arxiv.org/abs/2106.11482v1
- Date: Tue, 22 Jun 2021 02:09:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 14:59:06.097513
- Title: Wallpaper Texture Generation and Style Transfer Based on Multi-label
Semantics
- Title(参考訳): マルチラベル意味論に基づく壁紙テクスチャ生成とスタイル伝達
- Authors: Ying Gao, Xiaohan Feng, Tiange Zhang, Eric Rigall, Huiyu Zhou, Lin Qi,
Junyu Dong
- Abstract要約: 本稿では,マルチラベルセマンティクスを用いて壁紙テクスチャ画像を記述する。
これらのラベルと生成的対向ネットワークに基づいて,壁紙テクスチャ生成とスタイル伝達のための枠組みを提案する。
実験により, 人体美学に適合する壁紙テクスチャを生成でき, 芸術的特徴を有することが示された。
- 参考スコア(独自算出の注目度): 30.666441975717714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Textures contain a wealth of image information and are widely used in various
fields such as computer graphics and computer vision. With the development of
machine learning, the texture synthesis and generation have been greatly
improved. As a very common element in everyday life, wallpapers contain a
wealth of texture information, making it difficult to annotate with a simple
single label. Moreover, wallpaper designers spend significant time to create
different styles of wallpaper. For this purpose, this paper proposes to
describe wallpaper texture images by using multi-label semantics. Based on
these labels and generative adversarial networks, we present a framework for
perception driven wallpaper texture generation and style transfer. In this
framework, a perceptual model is trained to recognize whether the wallpapers
produced by the generator network are sufficiently realistic and have the
attribute designated by given perceptual description; these multi-label
semantic attributes are treated as condition variables to generate wallpaper
images. The generated wallpaper images can be converted to those with
well-known artist styles using CycleGAN. Finally, using the aesthetic
evaluation method, the generated wallpaper images are quantitatively measured.
The experimental results demonstrate that the proposed method can generate
wallpaper textures conforming to human aesthetics and have artistic
characteristics.
- Abstract(参考訳): テクスチャには豊富な画像情報が含まれており、コンピュータグラフィックスやコンピュータビジョンなど様々な分野で広く使われている。
機械学習の開発により、テクスチャの合成と生成が大幅に改善された。
日常生活における非常に一般的な要素として、壁紙には多くのテクスチャ情報が含まれており、単純な単一ラベルで注釈をつけることは困難である。
さらに、壁紙デザイナーは様々なスタイルの壁紙を作るのにかなりの時間を費やす。
本稿では,マルチラベルセマンティクスを用いて壁紙テクスチャ画像を記述することを提案する。
これらのラベルと生成的対向ネットワークに基づいて,壁紙テクスチャ生成とスタイル伝達のための枠組みを提案する。
この枠組みでは、知覚モデルを用いて、生成ネットワークが生成する壁紙が十分に現実的で、所定の知覚記述によって指定された属性を有するか否かを判断し、これらの多段意味属性を条件変数として処理して壁紙画像を生成する。
生成された壁紙画像は、cycleganを使用して、有名なアーティストスタイルに変換できる。
最後に、美的評価方法を用いて、生成した壁紙画像を定量的に測定する。
提案手法は,人間の美観に適合した壁紙テクスチャを生成でき,芸術的特徴を有することを示す。
関連論文リスト
- Compositional Neural Textures [25.885557234297835]
この研究は、合成ニューラルモデルを用いてテクスチャを表現するための、完全に教師なしのアプローチを導入する。
我々は,各テキストを,空間的支持がその形状を近似する2次元ガウス関数と,その詳細な外観を符号化する関連する特徴として表現する。
このアプローチは、画像テクスチャから他のイメージへの外観の移動、テクスチャの多様化、テクスチャのバリエーションの明示/修正、編集の伝播、テクスチャアニメーション、ダイレクトテキスト操作など、幅広いアプリケーションを可能にする。
論文 参考訳(メタデータ) (2024-04-18T21:09:34Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Semantic Draw Engineering for Text-to-Image Creation [2.615648035076649]
そこで本研究では,人工知能モデルをテーマ創造性に活用する手法を提案する。
この手法では、画像を作成する前に、すべての視覚要素を定量データ構造に変換する。
提案手法の有効性を,意味的精度,画像効率,計算効率の観点から評価する。
論文 参考訳(メタデータ) (2023-12-23T05:35:15Z) - Unsupervised Compositional Concepts Discovery with Text-to-Image
Generative Models [80.75258849913574]
本稿では、異なる画像の集合を考えると、各画像を表す生成概念を発見できるかという逆問題を考える。
本稿では,画像の集合から生成概念を抽出し,絵画やオブジェクト,キッチンシーンからの照明から異なる美術スタイルを分離し,イメージネット画像から得られる画像クラスを発見するための教師なしアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-08T17:02:15Z) - Text2Human: Text-Driven Controllable Human Image Generation [98.34326708923284]
既存の生成モデルは、しばしば衣服の形やテクスチャの多様性の高さの下で不足する。
テキスト駆動制御可能なフレームワークであるText2Humanを,高品質で多種多様なヒューマン世代向けに提案する。
論文 参考訳(メタデータ) (2022-05-31T17:57:06Z) - Texture for Colors: Natural Representations of Colors Using Variable
Bit-Depth Textures [13.180922099929765]
そこで本研究では,画像の強度だけでなく,元の色も表わす2値テクスチャの組に画像が変換される自動手法を提案する。
このシステムは、様々な画像ソースでテストすると、美的にバイナリイメージを満足させる。
論文 参考訳(メタデータ) (2021-05-04T21:22:02Z) - A Novel Bio-Inspired Texture Descriptor based on Biodiversity and
Taxonomic Measures [81.08571247838206]
種多様性と豊かさと分類学的特有性を通して、多様なパターンの複雑なシステムを定量化できる新しいアプローチを提案する。
提案手法は,各画像チャネルを種生態系とみなし,種多様性と豊かさの度合いを計算し,テクスチャを記述するための分類学的尺度である。
論文 参考訳(メタデータ) (2021-02-13T20:14:14Z) - TediGAN: Text-Guided Diverse Face Image Generation and Manipulation [52.83401421019309]
TediGANはマルチモーダル画像生成とテキスト記述による操作のためのフレームワークである。
StyleGANインバージョンモジュールは、よく訓練されたStyleGANの潜在空間に実際の画像をマッピングする。
視覚言語的類似性は、画像とテキストを共通の埋め込み空間にマッピングすることで、テキスト画像マッチングを学ぶ。
インスタンスレベルの最適化は、操作におけるID保存のためのものだ。
論文 参考訳(メタデータ) (2020-12-06T16:20:19Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。