論文の概要: MW-GAN: Multi-Warping GAN for Caricature Generation with Multi-Style
Geometric Exaggeration
- arxiv url: http://arxiv.org/abs/2001.01870v2
- Date: Sun, 19 Dec 2021 08:25:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 20:35:26.058865
- Title: MW-GAN: Multi-Warping GAN for Caricature Generation with Multi-Style
Geometric Exaggeration
- Title(参考訳): MW-GAN:マルチスタイル幾何誇張による画像生成のためのマルチワーピングGAN
- Authors: Haodi Hou, Jing Huo, Jing Wu, Yu-Kun Lai, and Yang Gao
- Abstract要約: 入力顔写真が与えられた場合、キャラクチュア生成の目標は、写真と同じアイデンティティを共有するスタイリングされた、誇張されたキャラクチュアを作ることである。
本稿では,MW-GAN(Multi-Warping GAN)と呼ばれる,スタイルネットワークと幾何学的ネットワークを含む新しいフレームワークを提案する。
実験により, MW-GANが生成する似顔絵は, 既存の方法よりも優れた品質を示すことが示された。
- 参考スコア(独自算出の注目度): 53.98437317161086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given an input face photo, the goal of caricature generation is to produce
stylized, exaggerated caricatures that share the same identity as the photo. It
requires simultaneous style transfer and shape exaggeration with rich
diversity, and meanwhile preserving the identity of the input. To address this
challenging problem, we propose a novel framework called Multi-Warping GAN
(MW-GAN), including a style network and a geometric network that are designed
to conduct style transfer and geometric exaggeration respectively. We bridge
the gap between the style and landmarks of an image with corresponding latent
code spaces by a dual way design, so as to generate caricatures with arbitrary
styles and geometric exaggeration, which can be specified either through random
sampling of latent code or from a given caricature sample. Besides, we apply
identity preserving loss to both image space and landmark space, leading to a
great improvement in quality of generated caricatures. Experiments show that
caricatures generated by MW-GAN have better quality than existing methods.
- Abstract(参考訳): 入力された顔写真が与えられると、似顔絵生成の目標は、写真と同じアイデンティティを持つ、スタイリッシュで誇張された似顔絵を作ることである。
入力の同一性を保ちながら、多彩な多様性を伴うスタイル転送と形状の誇張を同時に行う必要がある。
この課題に対処するために,スタイル転送と幾何学的誇張をそれぞれ行うように設計されたスタイルネットワークと幾何学的ネットワークを含む,MW-GAN(Multi-Warping GAN)と呼ばれる新しいフレームワークを提案する。
画像のスタイルとランドマークと対応する潜在コード空間とのギャップをデュアル・ウェイ・デザインにより橋渡しし、任意のスタイルと幾何学的な誇張を伴う似顔絵を生成する。
さらに、画像空間とランドマーク空間の両方にアイデンティティ保存損失を適用することで、生成した似顔絵の品質が大幅に向上する。
実験により, MW-GANが生成する似顔絵は, 既存の方法よりも優れた品質を示すことが示された。
関連論文リスト
- PS-StyleGAN: Illustrative Portrait Sketching using Attention-Based Style Adaptation [0.0]
ポートレートスケッチでは、抽象的な線と影で実際の顔のアイデンティティ固有の属性をキャプチャする。
本稿では,肖像画合成に適したスタイル転送手法である textbfPortrait Sketching StyleGAN (PS-StyleGAN) を提案する。
StyleGANのセマンティックな$W+$潜在空間を利用してポートレートスケッチを生成します。
論文 参考訳(メタデータ) (2024-08-31T04:22:45Z) - DemoCaricature: Democratising Caricature Generation with a Rough Sketch [80.90808879991182]
我々は、個々人が写真と概念スケッチだけで個人化された似顔絵を作れるように、似顔絵生成を民主化します。
私たちの目標は、スケッチに固有の創造性と主観性を保ちながら、抽象化とアイデンティティの微妙なバランスを取ることです。
論文 参考訳(メタデータ) (2023-12-07T15:35:42Z) - Portrait Diffusion: Training-free Face Stylization with
Chain-of-Painting [64.43760427752532]
顔のスタイリゼーション(face stylization)とは、顔の特定の肖像画スタイルへの変換を指す。
現在の手法では、ファインチューン事前訓練された生成モデルに対するサンプルベースの適応アプローチが必要とされる。
本稿では,ポートレートディフュージョン(Portrait Diffusion)という,トレーニング不要な顔スタイル化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-03T06:48:35Z) - Face Cartoonisation For Various Poses Using StyleGAN [0.7673339435080445]
本論文は,顔のマンガ化を実現するための革新的アプローチとして,顔の同一性を保ち,様々なポーズを付加する手法を提案する。
本研究では、画像からポーズ情報とアイデンティティ情報をキャプチャし、StyleGAN潜在空間内に対応する埋め込みを生成するエンコーダを導入する。
目的が漫画化である場合, エンコーダがStyleGAN出力にどのように適応し, アイデンティティをよりよく保存するかを, 広範囲にわたる実験により示す。
論文 参考訳(メタデータ) (2023-09-26T13:10:25Z) - Cross-Domain Style Mixing for Face Cartoonization [6.174413879403037]
本稿では,2つの異なるドメインからの2つの潜在コードを組み合わせたクロスドメイン・スタイル・ミキシング法を提案する。
本手法は,1つのジェネレータのみを用いて,顔の抽象レベルが異なる複数の漫画のキャラクターを効果的にスタイリングする。
論文 参考訳(メタデータ) (2022-05-25T02:39:10Z) - Unsupervised Contrastive Photo-to-Caricature Translation based on
Auto-distortion [49.93278173824292]
Photo-to-caricatureは、スケッチ、鉛筆のストローク、その他の芸術的図面を通じて特徴を誇張するレンダリング画像として、似顔絵を合成することを目的としている。
スタイルレンダリングと幾何学的変形は、フォト・ツー・キャリキュア・トランスフォーメーション・タスクにおいて最も重要な側面である。
教師なしのコントラスト変換アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-10T08:14:36Z) - CariMe: Unpaired Caricature Generation with Multiple Exaggerations [22.342630945133312]
キャラクチュア生成は、実際の写真を芸術的なスタイルと形状の誇張を備えたキャラクチュアに翻訳することを目的としている。
所定の写真から一定の画像の歪みを予測し、先行の似顔絵生成手法を強要する。
本稿では,画像から顔への分布レベルのマッピングを学習するためのマルチ・オーバーグラデーション・ワーパネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-01T08:14:32Z) - DeepFacePencil: Creating Face Images from Freehand Sketches [77.00929179469559]
既存の画像から画像への変換には、大規模なスケッチと画像のデータセットが必要である。
本稿では,手描きスケッチから写真リアルな顔画像を生成するための効果的なツールであるDeepFacePencilを提案する。
論文 参考訳(メタデータ) (2020-08-31T03:35:21Z) - Modeling Caricature Expressions by 3D Blendshape and Dynamic Texture [58.78290175562601]
本稿では,アーティストが描いた似顔絵を正規表現に従って変形させる問題に対する解法を提案する。
本ソリューションの鍵となるのは,従来の3DMM表現をキャラクチュア領域に拡張した,キャラクチュア表現をモデル化する新しい手法である。
提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2020-08-13T06:31:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。