論文の概要: Cross-Domain Style Mixing for Face Cartoonization
- arxiv url: http://arxiv.org/abs/2205.12450v1
- Date: Wed, 25 May 2022 02:39:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-28 19:27:00.076288
- Title: Cross-Domain Style Mixing for Face Cartoonization
- Title(参考訳): 顔の漫画化のためのクロスドメインスタイル混合
- Authors: Seungkwon Kim, Chaeheon Gwak, Dohyun Kim, Kwangho Lee, Jihye Back,
Namhyuk Ahn, Daesik Kim
- Abstract要約: 本稿では,2つの異なるドメインからの2つの潜在コードを組み合わせたクロスドメイン・スタイル・ミキシング法を提案する。
本手法は,1つのジェネレータのみを用いて,顔の抽象レベルが異なる複数の漫画のキャラクターを効果的にスタイリングする。
- 参考スコア(独自算出の注目度): 6.174413879403037
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Cartoon domain has recently gained increasing popularity. Previous studies
have attempted quality portrait stylization into the cartoon domain; however,
this poses a great challenge since they have not properly addressed the
critical constraints, such as requiring a large number of training images or
the lack of support for abstract cartoon faces. Recently, a layer swapping
method has been used for stylization requiring only a limited number of
training images; however, its use cases are still narrow as it inherits the
remaining issues. In this paper, we propose a novel method called Cross-domain
Style mixing, which combines two latent codes from two different domains. Our
method effectively stylizes faces into multiple cartoon characters at various
face abstraction levels using only a single generator without even using a
large number of training images.
- Abstract(参考訳): 漫画分野は最近人気が高まっている。
これまでの研究では、マンガドメインに高品質なポートレートスタイライゼーションを試みているが、多くのトレーニング画像や抽象的なマンガ顔のサポートの欠如といった重要な制約に適切に対処していないため、これは大きな課題となっている。
近年では、限られた訓練画像のみを必要とするスタイリングにレイヤースワップ法が用いられているが、残りの問題を継承しているため、その使用例は狭くなっている。
本稿では,2つの異なる領域の潜在コードを結合したクロスドメイン混合と呼ばれる新しい手法を提案する。
本手法は,多数の訓練画像を用いることなく,単一の生成器のみを用いて,様々な顔抽象化レベルで顔から複数のマンガキャラクタに効果的にスタイライズする。
関連論文リスト
- Stylized Face Sketch Extraction via Generative Prior with Limited Data [6.727433982111717]
StyleSketchは、顔画像から高解像度のスタイリングスケッチを抽出する方法である。
事前訓練されたStyleGANの深い特徴の豊富なセマンティクスを用いて、16対の顔とそれに対応するスケッチイメージでスケッチジェネレータを訓練することができる。
論文 参考訳(メタデータ) (2024-03-17T16:25:25Z) - ToonAging: Face Re-Aging upon Artistic Portrait Style Transfer [6.305926064192544]
ポートレート・スタイル・トランスファーと組み合わさって, 顔のリエイジングのための新しいワンステージ手法を提案する。
同じPRドメイン内でトレーニングされた既存の顔のリエイジとスタイル転送ネットワークを活用します。
提案手法は,ドメインレベルの微調整手法に比べて柔軟性が高い。
論文 参考訳(メタデータ) (2024-02-05T05:25:33Z) - Portrait Diffusion: Training-free Face Stylization with
Chain-of-Painting [64.43760427752532]
顔のスタイリゼーション(face stylization)とは、顔の特定の肖像画スタイルへの変換を指す。
現在の手法では、ファインチューン事前訓練された生成モデルに対するサンプルベースの適応アプローチが必要とされる。
本稿では,ポートレートディフュージョン(Portrait Diffusion)という,トレーニング不要な顔スタイル化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-03T06:48:35Z) - ToonTalker: Cross-Domain Face Reenactment [80.52472147553333]
クロスドメインな顔の再現は、実際の人のビデオで漫画のイメージを駆動することと、その逆である。
近年、実際の映像で肖像画を撮るワンショットの顔生成に多くの作品が焦点を当てている。
本稿では,異なる領域からの動作を共通の潜在空間に整列するトランスフォーマーベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-24T15:43:14Z) - CtlGAN: Few-shot Artistic Portraits Generation with Contrastive Transfer
Learning [77.27821665339492]
CtlGANは、新しいコントラッシブ・トランスファー学習戦略を備えた、数発のアート・ポートレート生成モデルである。
ソースドメインで事前訓練したStyleGANを,対象の芸術領域に適応させる。
実面をZ+空間に埋め込んだ新しいエンコーダを提案し,適応型デコーダに対処するためのデュアルパストレーニング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-16T13:28:17Z) - AniGAN: Style-Guided Generative Adversarial Networks for Unsupervised
Anime Face Generation [84.52819242283852]
本稿では,肖像画をアニメ化するための新しい枠組みを提案する。
私たちの目標は、特定の参照アニメフェイスとスタイル一貫性のあるアニメフェイスを合成することです。
既存の方法は、しばしば参照アニメフェイスのスタイルを転送したり、生成された顔の局所的な形状に顕著なアーティファクトや歪みを導入することに失敗する。
論文 参考訳(メタデータ) (2021-02-24T22:47:38Z) - DeepFacePencil: Creating Face Images from Freehand Sketches [77.00929179469559]
既存の画像から画像への変換には、大規模なスケッチと画像のデータセットが必要である。
本稿では,手描きスケッチから写真リアルな顔画像を生成するための効果的なツールであるDeepFacePencilを提案する。
論文 参考訳(メタデータ) (2020-08-31T03:35:21Z) - MW-GAN: Multi-Warping GAN for Caricature Generation with Multi-Style
Geometric Exaggeration [53.98437317161086]
入力顔写真が与えられた場合、キャラクチュア生成の目標は、写真と同じアイデンティティを共有するスタイリングされた、誇張されたキャラクチュアを作ることである。
本稿では,MW-GAN(Multi-Warping GAN)と呼ばれる,スタイルネットワークと幾何学的ネットワークを含む新しいフレームワークを提案する。
実験により, MW-GANが生成する似顔絵は, 既存の方法よりも優れた品質を示すことが示された。
論文 参考訳(メタデータ) (2020-01-07T03:08:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。