論文の概要: Wallpaper Texture Generation and Style Transfer Based on Multi-label
Semantics
- arxiv url: http://arxiv.org/abs/2106.11482v1
- Date: Tue, 22 Jun 2021 02:09:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 14:59:06.097513
- Title: Wallpaper Texture Generation and Style Transfer Based on Multi-label
Semantics
- Title(参考訳): マルチラベル意味論に基づく壁紙テクスチャ生成とスタイル伝達
- Authors: Ying Gao, Xiaohan Feng, Tiange Zhang, Eric Rigall, Huiyu Zhou, Lin Qi,
Junyu Dong
- Abstract要約: 本稿では,マルチラベルセマンティクスを用いて壁紙テクスチャ画像を記述する。
これらのラベルと生成的対向ネットワークに基づいて,壁紙テクスチャ生成とスタイル伝達のための枠組みを提案する。
実験により, 人体美学に適合する壁紙テクスチャを生成でき, 芸術的特徴を有することが示された。
- 参考スコア(独自算出の注目度): 30.666441975717714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Textures contain a wealth of image information and are widely used in various
fields such as computer graphics and computer vision. With the development of
machine learning, the texture synthesis and generation have been greatly
improved. As a very common element in everyday life, wallpapers contain a
wealth of texture information, making it difficult to annotate with a simple
single label. Moreover, wallpaper designers spend significant time to create
different styles of wallpaper. For this purpose, this paper proposes to
describe wallpaper texture images by using multi-label semantics. Based on
these labels and generative adversarial networks, we present a framework for
perception driven wallpaper texture generation and style transfer. In this
framework, a perceptual model is trained to recognize whether the wallpapers
produced by the generator network are sufficiently realistic and have the
attribute designated by given perceptual description; these multi-label
semantic attributes are treated as condition variables to generate wallpaper
images. The generated wallpaper images can be converted to those with
well-known artist styles using CycleGAN. Finally, using the aesthetic
evaluation method, the generated wallpaper images are quantitatively measured.
The experimental results demonstrate that the proposed method can generate
wallpaper textures conforming to human aesthetics and have artistic
characteristics.
- Abstract(参考訳): テクスチャには豊富な画像情報が含まれており、コンピュータグラフィックスやコンピュータビジョンなど様々な分野で広く使われている。
機械学習の開発により、テクスチャの合成と生成が大幅に改善された。
日常生活における非常に一般的な要素として、壁紙には多くのテクスチャ情報が含まれており、単純な単一ラベルで注釈をつけることは困難である。
さらに、壁紙デザイナーは様々なスタイルの壁紙を作るのにかなりの時間を費やす。
本稿では,マルチラベルセマンティクスを用いて壁紙テクスチャ画像を記述することを提案する。
これらのラベルと生成的対向ネットワークに基づいて,壁紙テクスチャ生成とスタイル伝達のための枠組みを提案する。
この枠組みでは、知覚モデルを用いて、生成ネットワークが生成する壁紙が十分に現実的で、所定の知覚記述によって指定された属性を有するか否かを判断し、これらの多段意味属性を条件変数として処理して壁紙画像を生成する。
生成された壁紙画像は、cycleganを使用して、有名なアーティストスタイルに変換できる。
最後に、美的評価方法を用いて、生成した壁紙画像を定量的に測定する。
提案手法は,人間の美観に適合した壁紙テクスチャを生成でき,芸術的特徴を有することを示す。
関連論文リスト
- TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Semantic Draw Engineering for Text-to-Image Creation [2.615648035076649]
そこで本研究では,人工知能モデルをテーマ創造性に活用する手法を提案する。
この手法では、画像を作成する前に、すべての視覚要素を定量データ構造に変換する。
提案手法の有効性を,意味的精度,画像効率,計算効率の観点から評価する。
論文 参考訳(メタデータ) (2023-12-23T05:35:15Z) - Unsupervised Compositional Concepts Discovery with Text-to-Image
Generative Models [80.75258849913574]
本稿では、異なる画像の集合を考えると、各画像を表す生成概念を発見できるかという逆問題を考える。
本稿では,画像の集合から生成概念を抽出し,絵画やオブジェクト,キッチンシーンからの照明から異なる美術スタイルを分離し,イメージネット画像から得られる画像クラスを発見するための教師なしアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-08T17:02:15Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural
Images [59.71861772648853]
我々は,最先端拡散モデルにより生成された偽画像の正当性に関する体系的研究を開拓した。
我々の分析は、偽画像は共通の低レベルな手がかりを共有しており、容易に認識できることを示している。
本設定では,偽検出手法の性能を定量的に評価し,コントラッシブ・ベース・ディエンタング・ストラテジーを導入する。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Plug-and-Play Diffusion Features for Text-Driven Image-to-Image
Translation [10.39028769374367]
本稿では,画像間翻訳の領域にテキスト・ツー・イメージ合成を取り入れた新しいフレームワークを提案する。
本手法は,事前学習したテキスト・画像拡散モデルのパワーを利用して,対象のテキストに適合する新たな画像を生成する。
論文 参考訳(メタデータ) (2022-11-22T20:39:18Z) - Text2Human: Text-Driven Controllable Human Image Generation [98.34326708923284]
既存の生成モデルは、しばしば衣服の形やテクスチャの多様性の高さの下で不足する。
テキスト駆動制御可能なフレームワークであるText2Humanを,高品質で多種多様なヒューマン世代向けに提案する。
論文 参考訳(メタデータ) (2022-05-31T17:57:06Z) - Texture for Colors: Natural Representations of Colors Using Variable
Bit-Depth Textures [13.180922099929765]
そこで本研究では,画像の強度だけでなく,元の色も表わす2値テクスチャの組に画像が変換される自動手法を提案する。
このシステムは、様々な画像ソースでテストすると、美的にバイナリイメージを満足させる。
論文 参考訳(メタデータ) (2021-05-04T21:22:02Z) - TediGAN: Text-Guided Diverse Face Image Generation and Manipulation [52.83401421019309]
TediGANはマルチモーダル画像生成とテキスト記述による操作のためのフレームワークである。
StyleGANインバージョンモジュールは、よく訓練されたStyleGANの潜在空間に実際の画像をマッピングする。
視覚言語的類似性は、画像とテキストを共通の埋め込み空間にマッピングすることで、テキスト画像マッチングを学ぶ。
インスタンスレベルの最適化は、操作におけるID保存のためのものだ。
論文 参考訳(メタデータ) (2020-12-06T16:20:19Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。