論文の概要: DrawingInStyles: Portrait Image Generation and Editing with Spatially
Conditioned StyleGAN
- arxiv url: http://arxiv.org/abs/2203.02762v1
- Date: Sat, 5 Mar 2022 14:54:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 17:45:47.270607
- Title: DrawingInStyles: Portrait Image Generation and Editing with Spatially
Conditioned StyleGAN
- Title(参考訳): DrawingInStyles:空間条件付スタイルGANによる画像生成と編集
- Authors: Wanchao Su, Hui Ye, Shu-Yu Chen, Lin Gao, Hongbo Fu
- Abstract要約: SC-StyleGANは,従来のStyleGAN生成プロセスに空間制約を注入する。
SC-StyleGANに基づいてDrawingInStylesを提案する。DrawingInStylesはプロでないユーザのための新しい描画インタフェースで、高品質でリアルな顔画像を容易に作成できる。
- 参考スコア(独自算出の注目度): 30.465955123686335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The research topic of sketch-to-portrait generation has witnessed a boost of
progress with deep learning techniques. The recently proposed StyleGAN
architectures achieve state-of-the-art generation ability but the original
StyleGAN is not friendly for sketch-based creation due to its unconditional
generation nature. To address this issue, we propose a direct conditioning
strategy to better preserve the spatial information under the StyleGAN
framework. Specifically, we introduce Spatially Conditioned StyleGAN
(SC-StyleGAN for short), which explicitly injects spatial constraints to the
original StyleGAN generation process. We explore two input modalities, sketches
and semantic maps, which together allow users to express desired generation
results more precisely and easily. Based on SC-StyleGAN, we present
DrawingInStyles, a novel drawing interface for non-professional users to easily
produce high-quality, photo-realistic face images with precise control, either
from scratch or editing existing ones. Qualitative and quantitative evaluations
show the superior generation ability of our method to existing and alternative
solutions. The usability and expressiveness of our system are confirmed by a
user study.
- Abstract(参考訳): スケッチ・ツー・ポートレイト生成の研究テーマは、ディープラーニング技術による進歩の促進を目の当たりにしている。
最近提案されたStyleGANアーキテクチャは最先端の生成能力を実現するが、オリジナルのStyleGANは非条件生成性のためスケッチベースの生成には適していない。
この問題に対処するため,我々は,StyleGANフレームワークの下で空間情報をよりよく保存するための直接条件付け戦略を提案する。
具体的には,空間条件付きスタイルGAN(SC-StyleGAN,略してSC-StyleGAN)を導入し,空間制約を元のスタイルGAN生成プロセスに明示的に注入する。
2つの入力モダリティ、スケッチ、セマンティックマップを探索し、ユーザが望む生成結果をより正確に簡単に表現できるようにする。
SC-StyleGANに基づいてDrawingInStylesを提案する。DrawingInStylesは、プロでないユーザのための新しい描画インタフェースで、スクラッチから、あるいは既存の画像の編集から、正確に制御された高品質でリアルな顔画像を容易に作成できる。
定性的および定量的評価は,本手法の既存および代替ソリューションよりも優れた生成能力を示す。
本システムのユーザビリティと表現性は,ユーザスタディによって確認される。
関連論文リスト
- PS-StyleGAN: Illustrative Portrait Sketching using Attention-Based Style Adaptation [0.0]
ポートレートスケッチでは、抽象的な線と影で実際の顔のアイデンティティ固有の属性をキャプチャする。
本稿では,肖像画合成に適したスタイル転送手法である textbfPortrait Sketching StyleGAN (PS-StyleGAN) を提案する。
StyleGANのセマンティックな$W+$潜在空間を利用してポートレートスケッチを生成します。
論文 参考訳(メタデータ) (2024-08-31T04:22:45Z) - Deformable One-shot Face Stylization via DINO Semantic Guidance [12.771707124161665]
本稿では、外観と構造を同時に考慮したワンショット顔スタイリングの問題に対処する。
従来の単一イメージスタイルの参照から切り離された変形認識顔のスタイリングを探索し、代わりにリアルスタイルのイメージペアを選択する。
論文 参考訳(メタデータ) (2024-03-01T11:30:55Z) - HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z) - Face Cartoonisation For Various Poses Using StyleGAN [0.7673339435080445]
本論文は,顔のマンガ化を実現するための革新的アプローチとして,顔の同一性を保ち,様々なポーズを付加する手法を提案する。
本研究では、画像からポーズ情報とアイデンティティ情報をキャプチャし、StyleGAN潜在空間内に対応する埋め込みを生成するエンコーダを導入する。
目的が漫画化である場合, エンコーダがStyleGAN出力にどのように適応し, アイデンティティをよりよく保存するかを, 広範囲にわたる実験により示す。
論文 参考訳(メタデータ) (2023-09-26T13:10:25Z) - StyleAdapter: A Unified Stylized Image Generation Model [97.24936247688824]
StyleAdapterは、様々なスタイリング画像を生成することができる統一型スタイリング画像生成モデルである。
T2I-adapter や ControlNet のような既存の制御可能な合成手法と統合することができる。
論文 参考訳(メタデータ) (2023-09-04T19:16:46Z) - StyleSwap: Style-Based Generator Empowers Robust Face Swapping [90.05775519962303]
StyleSwapという簡潔で効果的なフレームワークを紹介します。
私たちの中核となる考え方は、スタイルベースのジェネレータを活用して、高忠実で堅牢な顔交換を可能にすることです。
最小限の変更だけで、StyleGAN2アーキテクチャはソースとターゲットの両方から望まれる情報をうまく処理できる。
論文 参考訳(メタデータ) (2022-09-27T16:35:16Z) - Adversarial Style Augmentation for Domain Generalized Urban-Scene
Segmentation [120.96012935286913]
そこで本研究では,学習中にハードなスタイリング画像を生成可能な,新たな対向型拡張手法を提案する。
2つの合成から実のセマンティックセグメンテーションベンチマークの実験により、AdvStyleは目に見えない実領域におけるモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2022-07-11T14:01:25Z) - Pastiche Master: Exemplar-Based High-Resolution Portrait Style Transfer [103.54337984566877]
StyleGANの最近の研究は、限られたデータを用いたトランスファーラーニングによる芸術的肖像画生成に高い性能を示している。
本稿では,オリジナルフェイスドメインと拡張アートポートレートドメインの両スタイルを柔軟に制御できる新しいDualStyleGANを提案する。
高品質なポートレートスタイル転送とフレキシブルなスタイル制御において、DualStyleGANが最先端の手法よりも優れていることを示す実験である。
論文 参考訳(メタデータ) (2022-03-24T17:57:11Z) - State-of-the-Art in the Architecture, Methods and Applications of
StyleGAN [41.359306557243706]
最先端のレポートでは、StyleGANアーキテクチャと、その概念以来採用されてきた方法について取り上げている。
StyleGANの学習した潜伏空間は驚くほどうまく機能し、驚くほど乱れています。
StyleGANによって提供される制御は、本質的にジェネレータの学習分布に限られる。
論文 参考訳(メタデータ) (2022-02-28T18:42:04Z) - BlendGAN: Implicitly GAN Blending for Arbitrary Stylized Face Generation [9.370501805054344]
任意の顔生成のためのBlendGANを提案する。
まず、任意のスタイルの表現を抽出するために、ジェネリックアートデータセット上で自己教師型スタイルエンコーダを訓練する。
さらに、顔とスタイルの表現を暗黙的にブレンドし、任意のスタイル化効果を制御するために、重み付け混合モジュール(WBM)を提案する。
論文 参考訳(メタデータ) (2021-10-22T12:00:27Z) - Drafting and Revision: Laplacian Pyramid Network for Fast High-Quality
Artistic Style Transfer [115.13853805292679]
アートスタイルの転送は、サンプルイメージからコンテンツイメージへのスタイルの移行を目的としている。
図案作成と細部改訂の共通画法に触発されて,ラプラシアンピラミッドネットワーク(LapStyle)という新しいフィードフォワード方式を導入する。
本手法は, 定型的パターンを適切に伝達した高品質なスタイリズド画像をリアルタイムで合成する。
論文 参考訳(メタデータ) (2021-04-12T11:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。