論文の概要: Pastiche Master: Exemplar-Based High-Resolution Portrait Style Transfer
- arxiv url: http://arxiv.org/abs/2203.13248v1
- Date: Thu, 24 Mar 2022 17:57:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 13:26:41.622204
- Title: Pastiche Master: Exemplar-Based High-Resolution Portrait Style Transfer
- Title(参考訳): Pastiche Master: 先進的な高解像度ポートレートスタイルの転送
- Authors: Shuai Yang, Liming Jiang, Ziwei Liu, Chen Change Loy
- Abstract要約: StyleGANの最近の研究は、限られたデータを用いたトランスファーラーニングによる芸術的肖像画生成に高い性能を示している。
本稿では,オリジナルフェイスドメインと拡張アートポートレートドメインの両スタイルを柔軟に制御できる新しいDualStyleGANを提案する。
高品質なポートレートスタイル転送とフレキシブルなスタイル制御において、DualStyleGANが最先端の手法よりも優れていることを示す実験である。
- 参考スコア(独自算出の注目度): 103.54337984566877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies on StyleGAN show high performance on artistic portrait
generation by transfer learning with limited data. In this paper, we explore
more challenging exemplar-based high-resolution portrait style transfer by
introducing a novel DualStyleGAN with flexible control of dual styles of the
original face domain and the extended artistic portrait domain. Different from
StyleGAN, DualStyleGAN provides a natural way of style transfer by
characterizing the content and style of a portrait with an intrinsic style path
and a new extrinsic style path, respectively. The delicately designed extrinsic
style path enables our model to modulate both the color and complex structural
styles hierarchically to precisely pastiche the style example. Furthermore, a
novel progressive fine-tuning scheme is introduced to smoothly transform the
generative space of the model to the target domain, even with the above
modifications on the network architecture. Experiments demonstrate the
superiority of DualStyleGAN over state-of-the-art methods in high-quality
portrait style transfer and flexible style control.
- Abstract(参考訳): StyleGANの最近の研究は、限られたデータを用いた転送学習による芸術的肖像画生成に高い性能を示している。
本稿では,従来の顔領域と拡張された芸術的肖像画領域の両スタイルを柔軟に制御する新しいDualStyleGANを導入することで,模範的な高解像度肖像画スタイルの転送をより困難にする。
StyleGANとは異なり、DualStyleGANは、固有のスタイルパスと新しい外部スタイルパスを持つポートレートの内容とスタイルをそれぞれ特徴付けることによって、自然なスタイル転送を提供する。
繊細に設計された極端なスタイルパスにより,カラースタイルと複雑な構造スタイルの両方を階層的に変調し,正確にスタイル例を定式化することができる。
さらに、上述のネットワークアーキテクチャの変更であっても、モデルの生成空間を対象領域にスムーズに変換するために、新たなプログレッシブ微調整スキームを導入する。
高品質なポートレートスタイル転送とフレキシブルなスタイル制御における最先端手法よりもDualStyleGANの方が優れていることを示す実験である。
関連論文リスト
- Style Aligned Image Generation via Shared Attention [61.121465570763085]
本稿では,一連の生成画像間のスタイルアライメントを確立する技術であるStyleAlignedを紹介する。
拡散過程において、最小限の注意共有を生かして、T2Iモデル内の画像間のスタイル整合性を維持する。
本手法は,多種多様なスタイルやテキストのプロンプトにまたがって評価を行い,高品質で忠実であることを示す。
論文 参考訳(メタデータ) (2023-12-04T18:55:35Z) - DIFF-NST: Diffusion Interleaving For deFormable Neural Style Transfer [27.39248034592382]
変形可能なスタイル転送を実現しつつ,新しいモデルのクラスを用いてスタイル転送を行う。
これらのモデルの先行モデルを活用することで、推論時に新たな芸術的コントロールが公開できることを示す。
論文 参考訳(メタデータ) (2023-07-09T12:13:43Z) - Master: Meta Style Transformer for Controllable Zero-Shot and Few-Shot
Artistic Style Transfer [83.1333306079676]
本稿では,スタイル転送に特化した新しいトランスフォーマーモデルであるemphMasterを考案する。
提案モデルでは, 異なるトランスフォーマー層が共通のパラメータ群を共有し, 1) パラメータの総数を減らし, (2) より堅牢なトレーニング収束をもたらし, (3) は容易にスタイリングの程度を制御できる。
実験では、ゼロショットと少数ショットスタイルの転送設定の両方でMasterの優位性を示す。
論文 参考訳(メタデータ) (2023-04-24T04:46:39Z) - StyleRF: Zero-shot 3D Style Transfer of Neural Radiance Fields [52.19291190355375]
StyleRF(Style Radiance Fields)は、革新的な3Dスタイル転送技術である。
3Dシーンを表現するために、高精細な特徴の明確なグリッドを使用し、ボリュームレンダリングによって高精細な幾何学を確実に復元することができる。
グリッド機能は参照スタイルに従って変換され、それが直接的に高品質のゼロショットスタイルの転送につながる。
論文 参考訳(メタデータ) (2023-03-19T08:26:06Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Neural Artistic Style Transfer with Conditional Adversaria [0.0]
神経芸術スタイル変換モデルは、有名な画像のスタイルを追加することで、単純な画像の外観を変更することができる。
本稿では,画像独立型ニューラルスタイル転送モデルに向けた2つの手法を提案する。
我々の新しい貢献は、モデルアーキテクチャによる循環的一貫性を保証する一方向GANモデルである。
論文 参考訳(メタデータ) (2023-02-08T04:34:20Z) - VToonify: Controllable High-Resolution Portrait Video Style Transfer [103.54337984566877]
制御可能な高解像度のポートレートビデオスタイル転送のための新しいVToonifyフレームワークを提案する。
エンコーダによって抽出されたマルチスケールのコンテンツ特徴に基づいて,StyleGANの中間層と高解像度層を利用して芸術的な肖像画を描画する。
我々のフレームワークは、既存のStyleGANベースの画像トーン化モデルと互換性があり、それらをビデオトーン化に拡張し、色と強度の柔軟なスタイル制御のためにこれらのモデルの魅力的な特徴を継承する。
論文 参考訳(メタデータ) (2022-09-22T17:59:10Z) - DrawingInStyles: Portrait Image Generation and Editing with Spatially
Conditioned StyleGAN [30.465955123686335]
SC-StyleGANは,従来のStyleGAN生成プロセスに空間制約を注入する。
SC-StyleGANに基づいてDrawingInStylesを提案する。DrawingInStylesはプロでないユーザのための新しい描画インタフェースで、高品質でリアルな顔画像を容易に作成できる。
論文 参考訳(メタデータ) (2022-03-05T14:54:07Z) - Unified Style Transfer [6.914642763754318]
スタイルのカオス的定義のために異なるスタイル転送アルゴリズムを比較して評価することは困難である。
本稿では,新しいアプローチである統一スタイル転送(UST)モデルを提案する。
内部スタイル表現のための生成モデルの導入により、USTは、ドメインベースとイメージベースという2つのアプローチで画像を同時に転送することができる。
論文 参考訳(メタデータ) (2021-10-20T10:45:38Z) - Anisotropic Stroke Control for Multiple Artists Style Transfer [36.92721585146738]
Stroke Control Multi-Artist Style Transferフレームワークを開発した。
異方性ストロークモジュール(ASM)は、様々なスタイルで適応的なセマンティック一貫性を持つネットワークを提供する。
単一スケールの条件付き識別器とは対照的に,識別器はマルチスケールのテクスチャの手がかりを捉えることができる。
論文 参考訳(メタデータ) (2020-10-16T05:32:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。