論文の概要: 3D Cartoon Face Generation with Controllable Expressions from a Single
GAN Image
- arxiv url: http://arxiv.org/abs/2207.14425v1
- Date: Fri, 29 Jul 2022 01:06:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 12:50:47.950969
- Title: 3D Cartoon Face Generation with Controllable Expressions from a Single
GAN Image
- Title(参考訳): 単一のGAN画像からの制御可能な表現による3次元カルトーン顔生成
- Authors: Hao Wang, Guosheng Lin, Steven C. H. Hoi, Chunyan Miao
- Abstract要約: 我々は、単一の2D GAN生成人間の顔から3次元マンガの顔形状を生成する。
我々は3次元マンガの顔の形状を再構築できるように、ポーズや照明の異なる画像を生成するために潜時符号を操作する。
- 参考スコア(独自算出の注目度): 142.047662926209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate an open research task of generating 3D cartoon
face shapes from single 2D GAN generated human faces and without 3D
supervision, where we can also manipulate the facial expressions of the 3D
shapes. To this end, we discover the semantic meanings of StyleGAN latent
space, such that we are able to produce face images of various expressions,
poses, and lighting by controlling the latent codes. Specifically, we first
finetune the pretrained StyleGAN face model on the cartoon datasets. By feeding
the same latent codes to face and cartoon generation models, we aim to realize
the translation from 2D human face images to cartoon styled avatars. We then
discover semantic directions of the GAN latent space, in an attempt to change
the facial expressions while preserving the original identity. As we do not
have any 3D annotations for cartoon faces, we manipulate the latent codes to
generate images with different poses and lighting, such that we can reconstruct
the 3D cartoon face shapes. We validate the efficacy of our method on three
cartoon datasets qualitatively and quantitatively.
- Abstract(参考訳): 本稿では,人間の顔から生成した1枚の2d ganから3dマンガの表情を3d監視することなく生成する,オープンな研究課題について検討する。
そこで本研究では,スタイルガン潜在空間の意味的意味を見出し,潜在コードの制御により様々な表情,ポーズ,照明の表情画像を生成する。
具体的には,マンガのデータセットから事前学習したStyleGANの顔モデルを抽出する。
顔とマンガ生成モデルに同一の潜伏符号を供給することにより,2次元顔画像からマンガスタイルのアバターへの変換の実現を目指している。
次に、元のアイデンティティを維持しながら表情を変化させようとして、gan潜在空間の意味的方向を見つける。
マンガの顔に3dアノテーションはないので、潜在コードを操作してポーズや照明の異なる画像を生成し、3dマンガの顔形状を再構築できるようにします。
本手法の有効性を,定性的かつ定量的に検証した。
関連論文リスト
- DEGAS: Detailed Expressions on Full-Body Gaussian Avatars [13.683836322899953]
顔表情の豊かなフルボディアバターに対する3次元ガウススティング(3DGS)に基づくモデリング手法であるDEGASを提案する。
本稿では,2次元の顔と3次元のアバターのギャップを埋めて,2次元の肖像画にのみ訓練された潜在空間を採用することを提案する。
論文 参考訳(メタデータ) (2024-08-20T06:52:03Z) - AniPortraitGAN: Animatable 3D Portrait Generation from 2D Image
Collections [78.81539337399391]
顔の表情, 頭部ポーズ, 肩の動きを制御可能なポートレート画像を生成するアニマタブルな3D認識型GANを提案する。
これは、3Dやビデオデータを使用しない非構造化2次元画像コレクションで訓練された生成モデルである。
生成した顔の質を向上させるために,デュアルカメラレンダリングと対角学習方式を提案する。
論文 参考訳(メタデータ) (2023-09-05T12:44:57Z) - Generating Animatable 3D Cartoon Faces from Single Portraits [51.15618892675337]
1枚のポートレート画像からアニマタブルな3Dマンガの顔を生成するための新しい枠組みを提案する。
本研究では,3次元マンガの顔のテクスチャを再現する2段階再構築手法を提案する。
最後に,手作業によるテンプレート作成と変形伝達に基づく意味保存顔リギング手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T04:12:50Z) - Single-Shot Implicit Morphable Faces with Consistent Texture
Parameterization [91.52882218901627]
本稿では,3次元形態素な顔モデルを構築するための新しい手法を提案する。
本手法は, 最先端手法と比較して, フォトリアリズム, 幾何, 表現精度を向上する。
論文 参考訳(メタデータ) (2023-05-04T17:58:40Z) - AniFaceGAN: Animatable 3D-Aware Face Image Generation for Video Avatars [71.00322191446203]
2D生成モデルは、異なるカメラ視点で画像をレンダリングする際に、しばしば望ましくないアーティファクトに悩まされる。
近年,3次元シーン表現を活用することで,3次元カメラポーズのゆがみを明示するために2次元GANを拡張している。
マルチビュー一貫した顔アニメーション生成のためのアニマタブルな3D対応GANを提案する。
論文 参考訳(メタデータ) (2022-10-12T17:59:56Z) - Lifting 2D StyleGAN for 3D-Aware Face Generation [52.8152883980813]
我々は,3次元顔生成のための事前学習済みのStyleGAN2を切断し,持ち上げるLiftedGANというフレームワークを提案する。
本モデルは,(1)StyleGAN2の潜伏空間をテクスチャ,形状,視点,照明に分解し,(2)合成画像のための3D成分を生成することができるという意味で「3D認識」である。
論文 参考訳(メタデータ) (2020-11-26T05:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。