論文の概要: SuperStyleNet: Deep Image Synthesis with Superpixel Based Style Encoder
- arxiv url: http://arxiv.org/abs/2112.09367v1
- Date: Fri, 17 Dec 2021 07:53:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 16:04:29.528198
- Title: SuperStyleNet: Deep Image Synthesis with Superpixel Based Style Encoder
- Title(参考訳): superstylenet:superpixelベースのスタイルエンコーダによるディープイメージ合成
- Authors: Jonghyun Kim, Gen Li, Cheolkon Jung, Joongkyu Kim
- Abstract要約: 我々はSuperStyleNetという名前のスーパーピクセルベースのエンコーダを用いたディープ画像合成を提案する。
まず,スーパーピクセルをベースとしたオリジナル画像からスタイルコードを直接抽出し,局所オブジェクトを考察する。
第2に、グラフィカル解析に基づいてベクトル化されたスタイルコードにおける空間関係を復元する。
- 参考スコア(独自算出の注目度): 42.797556930348186
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Existing methods for image synthesis utilized a style encoder based on stacks
of convolutions and pooling layers to generate style codes from input images.
However, the encoded vectors do not necessarily contain local information of
the corresponding images since small-scale objects are tended to "wash away"
through such downscaling procedures. In this paper, we propose deep image
synthesis with superpixel based style encoder, named as SuperStyleNet. First,
we directly extract the style codes from the original image based on
superpixels to consider local objects. Second, we recover spatial relationships
in vectorized style codes based on graphical analysis. Thus, the proposed
network achieves high-quality image synthesis by mapping the style codes into
semantic labels. Experimental results show that the proposed method outperforms
state-of-the-art ones in terms of visual quality and quantitative measurements.
Furthermore, we achieve elaborate spatial style editing by adjusting style
codes.
- Abstract(参考訳): 既存の画像合成法では、畳み込み層とプール層をベースとしたスタイルエンコーダを用いて入力画像からスタイルコードを生成する。
しかし、エンコードされたベクトルは、そのようなダウンスケールの手順によって、小さなオブジェクトが「洗い流される」傾向があるため、対応する画像の局所的な情報を含む必要はない。
本稿では,superstylenetと呼ばれるスーパーピクセルベースのエンコーダを用いた深部画像合成を提案する。
まず,スーパーピクセルをベースとしたオリジナル画像からスタイルコードを直接抽出し,局所オブジェクトを考察する。
第2に,図形解析に基づくベクトル化スタイル符号の空間関係を復元する。
そこで,提案するネットワークは,スタイルコードを意味ラベルにマッピングすることで高品質な画像合成を実現する。
実験の結果,提案手法は視覚的品質と定量的測定において最先端の手法よりも優れていた。
さらに,スタイルコードを調整することで,精巧な空間スタイル編集を実現する。
関連論文リスト
- Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - CoGS: Controllable Generation and Search from Sketch and Style [35.625940819995996]
画像のスタイル条件付きスケッチ駆動合成法であるCoGSを提案する。
CoGSは、与えられたスケッチされたオブジェクトの様々な外観可能性の探索を可能にする。
新たに作成したPseudosketchesデータセットの125のオブジェクトクラスをトレーニングしたモデルでは,セマンティックコンテンツや外観スタイルの多様さが実現可能であることを示す。
論文 参考訳(メタデータ) (2022-03-17T18:36:11Z) - Feature-Style Encoder for Style-Based GAN Inversion [1.9116784879310027]
本稿では,特徴型エンコーダ(Feature-Style encoder)と呼ばれる,GANインバージョンのための新しいアーキテクチャを提案する。
本モデルは,事前学習したスタイルベースGANモデルの潜在空間から,実画像の正確な逆変換を実現する。
エンコーダ構造のおかげで、モデルは高速で正確な画像編集を可能にする。
論文 参考訳(メタデータ) (2022-02-04T15:19:34Z) - StyleFusion: A Generative Model for Disentangling Spatial Segments [41.35834479560669]
StyleGANの新しいマッピングアーキテクチャであるStyleFusionを紹介する。
StyleFusionは、複数の潜伏したコードを入力として、それらを単一のスタイルのコードにフューズする。
生成された画像の各領域のきめ細かい制御を提供する。
論文 参考訳(メタデータ) (2021-07-15T16:35:21Z) - StyleMapGAN: Exploiting Spatial Dimensions of Latent in GAN for
Real-time Image Editing [19.495153059077367]
generative adversarial networks (gans) はランダムな潜在ベクトルから現実的な画像を合成する。
ganによる実画像の編集は、実画像を潜在ベクトルに投影するための時間消費最適化(ii)またはエンコーダによる不正確な埋め込みに苦しむ。
StyleMapGANを提案する:中間潜空間は空間次元を持ち、空間的変異体はAdaINを置き換える。
論文 参考訳(メタデータ) (2021-04-30T04:43:24Z) - Drafting and Revision: Laplacian Pyramid Network for Fast High-Quality
Artistic Style Transfer [115.13853805292679]
アートスタイルの転送は、サンプルイメージからコンテンツイメージへのスタイルの移行を目的としている。
図案作成と細部改訂の共通画法に触発されて,ラプラシアンピラミッドネットワーク(LapStyle)という新しいフィードフォワード方式を導入する。
本手法は, 定型的パターンを適切に伝達した高品質なスタイリズド画像をリアルタイムで合成する。
論文 参考訳(メタデータ) (2021-04-12T11:53:53Z) - Free-Form Image Inpainting via Contrastive Attention Network [64.05544199212831]
画像の塗装作業では、複雑なパターンを形成する画像のどこにでも、どんな形でもマスクが現れる。
エンコーダはこの複雑な状況下でこのような強力な表現を捕捉することは困難である。
本稿では,ロバスト性と一般化性を改善するための自己教師型シームズ推論ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T14:46:05Z) - Swapping Autoencoder for Deep Image Manipulation [94.33114146172606]
画像操作に特化して設計されたディープモデルであるSwapping Autoencoderを提案する。
キーとなるアイデアは、2つの独立したコンポーネントで画像をエンコードし、交換された組み合わせをリアルなイメージにマップするように強制することだ。
複数のデータセットの実験により、我々のモデルはより良い結果が得られ、最近の生成モデルと比較してかなり効率が良いことが示されている。
論文 参考訳(メタデータ) (2020-07-01T17:59:57Z) - In-Domain GAN Inversion for Real Image Editing [56.924323432048304]
トレーニング済みのGANジェネレータに実際のイメージを送出する一般的な方法は、遅延コードに戻すことである。
既存の反転法は、通常、画素値によってターゲット画像の再構成にフォーカスするが、反転したコードは元の潜伏空間のセマンティックドメインに着陸しない。
本稿では、入力画像を忠実に再構成し、変換されたコードが編集に意味のある意味を持つようにするためのドメイン内GAN逆変換手法を提案する。
論文 参考訳(メタデータ) (2020-03-31T18:20:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。