論文の概要: DyStyle: Dynamic Neural Network for Multi-Attribute-Conditioned Style
Editing
- arxiv url: http://arxiv.org/abs/2109.10737v1
- Date: Wed, 22 Sep 2021 13:50:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 13:44:02.055784
- Title: DyStyle: Dynamic Neural Network for Multi-Attribute-Conditioned Style
Editing
- Title(参考訳): DyStyle:マルチ属性スタイル編集のための動的ニューラルネットワーク
- Authors: Bingchuan Li, Shaofei Cai, Wei Liu, Peng Zhang, Miao Hua, Qian He,
Zili Yi
- Abstract要約: 属性条件付きスタイル編集を行うために動的スタイル操作ネットワーク(DyStyle)を提案する。
DyStyleネットワークの効率的かつ安定したトレーニングのために、新しい容易かつハードなトレーニング手順が導入された。
提案手法では,複数の数値属性とバイナリ属性に沿って細粒度な不整合編集を行う。
- 参考スコア(独自算出の注目度): 12.80013698957431
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Great diversity and photorealism have been achieved by unconditional GAN
frameworks such as StyleGAN and its variations. In the meantime, persistent
efforts have been made to enhance the semantic controllability of StyleGANs.
For example, a dozen of style manipulation methods have been recently proposed
to perform attribute-conditioned style editing. Although some of these methods
work well in manipulating the style codes along one attribute, the control
accuracy when jointly manipulating multiple attributes tends to be problematic.
To address these limitations, we propose a Dynamic Style Manipulation Network
(DyStyle) whose structure and parameters vary by input samples, to perform
nonlinear and adaptive manipulation of latent codes for flexible and precise
attribute control. Additionally, a novel easy-to-hard training procedure is
introduced for efficient and stable training of the DyStyle network. Extensive
experiments have been conducted on faces and other objects. As a result, our
approach demonstrates fine-grained disentangled edits along multiple numeric
and binary attributes. Qualitative and quantitative comparisons with existing
style manipulation methods verify the superiority of our method in terms of the
attribute control accuracy and identity preservation without compromising the
photorealism. The advantage of our method is even more significant for joint
multi-attribute control. The source codes are made publicly available at
\href{https://github.com/phycvgan/DyStyle}{phycvgan/DyStyle}.
- Abstract(参考訳): 多様性とフォトリアリズムはStyleGANのような無条件のGANフレームワークとそのバリエーションによって達成されている。
一方、StyleGANのセマンティックコントロール性を高めるため、継続的な努力が続けられている。
例えば、属性条件付きスタイル編集を行うために、最近12のスタイル操作方法が提案されている。
これらの方法のいくつかは一つの属性に沿ってスタイルコードを操作するのにうまく機能するが、複数の属性を共同で操作する場合の制御精度は問題となる傾向がある。
これらの制約に対処するために、動的スタイル制御ネットワーク(DyStyle)を提案し、その構造とパラメータは入力サンプルによって異なり、柔軟で正確な属性制御のための遅延符号の非線形かつ適応的な操作を行う。
さらに,dystyleネットワークの効率的かつ安定なトレーニングのために,新しい簡易ハードトレーニング手順が導入された。
顔や他の物体について広範な実験が行われている。
その結果,複数の数値属性とバイナリ属性に沿って,細粒度に乱れた編集を行うことができた。
光リアリズムを損なうことなく属性制御の精度とアイデンティティ保存の観点から,既存のスタイル操作法と定性的かつ定量的な比較を行った。
本手法の利点は, 関節多属性制御においてさらに重要である。
ソースコードは \href{https://github.com/phycvgan/DyStyle}{phycvgan/DyStyle} で公開されている。
関連論文リスト
- Continuous, Subject-Specific Attribute Control in T2I Models by Identifying Semantic Directions [21.371773126590874]
一般に使われているトークンレベルのCLIPテキスト埋め込みには,テキスト・ツー・イメージ・モデルにおける高レベル属性の微粒な主観的制御を可能にする方向が存在することを示す。
コントラッシブテキストプロンプトから特定の属性に対するこれらの方向を識別する,効率的な最適化自由度とロバストな最適化ベース手法を1つ導入する。
論文 参考訳(メタデータ) (2024-03-25T18:00:42Z) - ManiCLIP: Multi-Attribute Face Manipulation from Text [104.30600573306991]
テキスト記述に基づく新しい多属性顔操作法を提案する。
本手法は,テキスト関連属性の編集を最小限に抑えた自然な顔を生成する。
論文 参考訳(メタデータ) (2022-10-02T07:22:55Z) - Everything is There in Latent Space: Attribute Editing and Attribute
Style Manipulation by StyleGAN Latent Space Exploration [39.18239951479647]
RAAME (Few-shot Latent-based Attribute Manipulation and Editing) について紹介する。
FLAMEは、遅延空間操作によって高度に制御された画像編集を行うためのフレームワークである。
様々な属性スタイルをアンタングル的に生成する。
論文 参考訳(メタデータ) (2022-07-20T12:40:32Z) - Style Interleaved Learning for Generalizable Person Re-identification [69.03539634477637]
DG ReIDトレーニングのための新しいスタイルインターリーブラーニング(IL)フレームワークを提案する。
従来の学習戦略とは異なり、ILには2つの前方伝播と1つの後方伝播が組み込まれている。
我々のモデルはDG ReIDの大規模ベンチマークにおいて最先端の手法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-07-07T07:41:32Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Attribute-specific Control Units in StyleGAN for Fine-grained Image
Manipulation [57.99007520795998]
特徴マップと変調スタイルの複数のチャネルからなる属性固有制御ユニットを探索する。
具体的には、制御ユニット内の変調スタイルのチャネルと特徴マップを協調的に操作し、意味的および空間的不整合制御を得る。
我々は、特定のスパース方向ベクトルに沿って変調スタイルを移動させ、これらの制御ユニットを操作するために特徴マップを計算するために使用されるフィルタワイズスタイルを置き換える。
論文 参考訳(メタデータ) (2021-11-25T10:42:10Z) - SMILE: Semantically-guided Multi-attribute Image and Layout Editing [154.69452301122175]
GAN(Generative Adversarial Networks)の導入以来、属性画像操作は非常に活発な話題となっている。
対象領域の下位領域情報のみを使用しながら、ランダムノイズや画像によって誘導される全ての属性を処理するマルチモーダル表現を提案する。
本手法では,イメージを参照として,あるいはスタイル分布空間を探索することにより,細粒度や粗粒度などの属性の追加,削除,変更を行うことができる。
論文 参考訳(メタデータ) (2020-10-05T20:15:21Z) - StyleFlow: Attribute-conditioned Exploration of StyleGAN-Generated
Images using Conditional Continuous Normalizing Flows [40.69516201141587]
StyleFlowは、属性特徴によって条件付けられたGAN潜在空間における条件付き連続正規化フローの例である。
提案手法は,StyleGANの顔と車載空間を用いて評価し,実際の写真とStyleGAN生成画像の両方の属性に沿った細粒度な不整合編集を示す。
論文 参考訳(メタデータ) (2020-08-06T00:10:03Z) - Multi-Attribute Guided Painting Generation [73.75835513261951]
制御可能な絵画生成は、イメージスタイリゼーションにおいて重要な役割を担っている。
本稿では,絵画の複数の属性を取り入れた新しい枠組みを提案し,そのスタイル化結果を制御した。
論文 参考訳(メタデータ) (2020-02-26T02:22:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。