論文の概要: StyleFlow: Attribute-conditioned Exploration of StyleGAN-Generated
Images using Conditional Continuous Normalizing Flows
- arxiv url: http://arxiv.org/abs/2008.02401v2
- Date: Sun, 20 Sep 2020 15:39:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 07:47:49.926265
- Title: StyleFlow: Attribute-conditioned Exploration of StyleGAN-Generated
Images using Conditional Continuous Normalizing Flows
- Title(参考訳): StyleFlow: 条件付き連続正規化フローを用いたStyleGAN生成画像の属性条件付き探索
- Authors: Rameen Abdal, Peihao Zhu, Niloy Mitra, Peter Wonka
- Abstract要約: StyleFlowは、属性特徴によって条件付けられたGAN潜在空間における条件付き連続正規化フローの例である。
提案手法は,StyleGANの顔と車載空間を用いて評価し,実際の写真とStyleGAN生成画像の両方の属性に沿った細粒度な不整合編集を示す。
- 参考スコア(独自算出の注目度): 40.69516201141587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-quality, diverse, and photorealistic images can now be generated by
unconditional GANs (e.g., StyleGAN). However, limited options exist to control
the generation process using (semantic) attributes, while still preserving the
quality of the output. Further, due to the entangled nature of the GAN latent
space, performing edits along one attribute can easily result in unwanted
changes along other attributes. In this paper, in the context of conditional
exploration of entangled latent spaces, we investigate the two sub-problems of
attribute-conditioned sampling and attribute-controlled editing. We present
StyleFlow as a simple, effective, and robust solution to both the sub-problems
by formulating conditional exploration as an instance of conditional continuous
normalizing flows in the GAN latent space conditioned by attribute features. We
evaluate our method using the face and the car latent space of StyleGAN, and
demonstrate fine-grained disentangled edits along various attributes on both
real photographs and StyleGAN generated images. For example, for faces, we vary
camera pose, illumination variation, expression, facial hair, gender, and age.
Finally, via extensive qualitative and quantitative comparisons, we demonstrate
the superiority of StyleFlow to other concurrent works.
- Abstract(参考訳): 高品質で多様なフォトリアリスティックな画像は、無条件のGAN(StyleGANなど)で生成できる。
しかし、(意味)属性を使用して生成プロセスを制御するための限られたオプションがあり、出力の品質を保っている。
さらに、GAN潜伏空間の絡み合った性質のため、ある属性に沿って編集を行うと、他の属性に沿って不要な変更が容易に生じる。
本稿では,エンタングル潜在空間の条件付き探索の文脈において,属性条件付きサンプリングと属性制御編集の2つのサブ問題について検討する。
属性特徴によって条件付けられたGAN潜在空間における条件付き連続正規化フローの例として、条件付き探索を定式化することにより、両方のサブプロブレムに対する単純で効果的で堅牢な解としてStyleFlowを提案する。
提案手法は,StyleGANの顔と車載空間を用いて評価し,実際の写真とStyleGAN生成画像の両方の属性に沿った細粒度な不整合編集を示す。
例えば、顔には、カメラのポーズ、照明の変化、表情、顔の毛髪、性別、年齢などがあります。
最後に,質的かつ定量的な比較を通じて,スタイルフローが他の同時作業よりも優れていることを示す。
関連論文リスト
- ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - Hierarchical Semantic Regularization of Latent Spaces in StyleGANs [53.98170188547775]
本稿では,階層型意味正規化器(HSR)を提案する。これは,生成元が学習した階層的表現と,事前学習したネットワークが大量のデータに基づいて学習する強力な特徴とを一致させる。
HSRは、ジェネレータ表現の改善だけでなく、潜在スタイル空間の線形性と滑らかさも示しており、より自然なスタイル編集画像の生成につながっている。
論文 参考訳(メタデータ) (2022-08-07T16:23:33Z) - Everything is There in Latent Space: Attribute Editing and Attribute
Style Manipulation by StyleGAN Latent Space Exploration [39.18239951479647]
RAAME (Few-shot Latent-based Attribute Manipulation and Editing) について紹介する。
FLAMEは、遅延空間操作によって高度に制御された画像編集を行うためのフレームワークである。
様々な属性スタイルをアンタングル的に生成する。
論文 参考訳(メタデータ) (2022-07-20T12:40:32Z) - DyStyle: Dynamic Neural Network for Multi-Attribute-Conditioned Style
Editing [12.80013698957431]
属性条件付きスタイル編集を行うために動的スタイル操作ネットワーク(DyStyle)を提案する。
DyStyleネットワークの効率的かつ安定したトレーニングのために、新しい容易かつハードなトレーニング手順が導入された。
提案手法では,複数の数値属性とバイナリ属性に沿って細粒度な不整合編集を行う。
論文 参考訳(メタデータ) (2021-09-22T13:50:51Z) - Disentangled Face Attribute Editing via Instance-Aware Latent Space
Search [30.17338705964925]
GAN(Generative Adversarial Networks)の潜在空間には、意味的な方向性の豊富な集合が存在する。
既存のメソッドは属性のばらつきが弱いため、望ましい属性を変更する際には、他の属性が望ましくない変更になる可能性がある。
本稿では,不整合属性編集のセマンティックな方向を求めるために,インスタンス認識遅延空間探索を行う新しいフレームワーク(IALS)を提案する。
論文 参考訳(メタデータ) (2021-05-26T16:19:08Z) - Enjoy Your Editing: Controllable GANs for Image Editing via Latent Space
Navigation [136.53288628437355]
コントロール可能なセマンティックイメージ編集により、ユーザーはクリック数回で画像属性全体を変更できる。
現在のアプローチでは、絡み合った属性編集、グローバルなイメージアイデンティティの変更、フォトリアリズムの低下に悩まされることが多い。
本稿では,主に定性評価に焦点を当てた先行研究とは異なり,制御可能な編集性能を測定するための定量的評価手法を提案する。
論文 参考訳(メタデータ) (2021-02-01T21:38:36Z) - Style Intervention: How to Achieve Spatial Disentanglement with
Style-based Generators? [100.60938767993088]
任意の入力画像に適応し、フレキシブルな目的の下で自然な翻訳効果をレンダリングできる軽量な最適化アルゴリズムを提案する。
フォトリアリズムと一貫性の両方を必要とする高解像度画像の顔属性編集において,提案するフレームワークの性能を検証する。
論文 参考訳(メタデータ) (2020-11-19T07:37:31Z) - PIE: Portrait Image Embedding for Semantic Control [82.69061225574774]
本稿では,StyleGANの潜在空間に実際の肖像画を埋め込むための最初のアプローチを提案する。
トレーニング済みのニューラルネットワークであるStyleRigは、3D形態素顔モデルの制御空間をGANの潜在空間にマッピングする。
アイデンティティエネルギー保存用語は、顔の整合性を維持しながら空間的コヒーレントな編集を可能にする。
論文 参考訳(メタデータ) (2020-09-20T17:53:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。