論文の概要: Controllable 3D Generative Adversarial Face Model via Disentangling
Shape and Appearance
- arxiv url: http://arxiv.org/abs/2208.14263v1
- Date: Tue, 30 Aug 2022 13:40:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-31 13:16:06.076874
- Title: Controllable 3D Generative Adversarial Face Model via Disentangling
Shape and Appearance
- Title(参考訳): ディエングリング形状と外観による制御可能な3次元生成逆顔モデル
- Authors: Fariborz Taherkhani, Aashish Rai, Quankai Gao, Shaunak Srivastava,
Xuanbai Chen, Fernando de la Torre, Steven Song, Aayush Prakash, Daeil Kim
- Abstract要約: 3次元顔モデリングはコンピュータビジョンとコンピュータグラフィックスの研究の活発な領域である。
本稿では,識別と表現を分離できる新しい3次元顔生成モデルを提案する。
- 参考スコア(独自算出の注目度): 63.13801759915835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D face modeling has been an active area of research in computer vision and
computer graphics, fueling applications ranging from facial expression transfer
in virtual avatars to synthetic data generation. Existing 3D deep learning
generative models (e.g., VAE, GANs) allow generating compact face
representations (both shape and texture) that can model non-linearities in the
shape and appearance space (e.g., scatter effects, specularities, etc.).
However, they lack the capability to control the generation of subtle
expressions. This paper proposes a new 3D face generative model that can
decouple identity and expression and provides granular control over
expressions. In particular, we propose using a pair of supervised auto-encoder
and generative adversarial networks to produce high-quality 3D faces, both in
terms of appearance and shape. Experimental results in the generation of 3D
faces learned with holistic expression labels, or Action Unit labels, show how
we can decouple identity and expression; gaining fine-control over expressions
while preserving identity.
- Abstract(参考訳): 3d顔モデリングはコンピュータビジョンとコンピュータグラフィックスの研究の活発な分野であり、仮想アバターの表情の伝達から合成データ生成まで幅広い応用を加速している。
既存の3dディープラーニング生成モデル(例えばvae、gan)は、形状と外観空間(例えば散乱効果、スペクティリティなど)における非線形をモデル化できるコンパクトな顔表現(形状とテクスチャの両方)を生成することができる。
しかし、微妙な表現の生成を制御する能力は欠如している。
本稿では,識別と表現を分離し,表現の粒度を制御できる新しい3次元顔生成モデルを提案する。
特に,教師付き自動エンコーダと生成的対向ネットワークを用いて,外観と形状の両面で高品質な3D顔を生成することを提案する。
包括的表現ラベル(Action Unit labels)を用いて学習した3次元顔の生成実験は、アイデンティティと表現を分離する方法を示し、アイデンティティを保ちながら表現を微調整する。
関連論文リスト
- 4D Facial Expression Diffusion Model [3.507793603897647]
本稿では,3次元表情系列を生成するための生成フレームワークを提案する。
これは、一連の3Dランドマークシーケンスでトレーニングされた生成モデルを学ぶことと、生成されたランドマークシーケンスによって駆動される入力された顔メッシュの3Dメッシュシーケンスを生成することの2つのタスクで構成されている。
実験により,本モデルは比較的小さなデータセットからのみ,現実的で質の高い表現を生成することができ,最先端の手法よりも改善されていることがわかった。
論文 参考訳(メタデータ) (2023-03-29T11:50:21Z) - 3D-LDM: Neural Implicit 3D Shape Generation with Latent Diffusion Models [8.583859530633417]
自動復号器の潜時空間で動作する3次元形状のニューラル暗黙表現のための拡散モデルを提案する。
これにより、多種多様な高品質な3D表面を生成できます。
論文 参考訳(メタデータ) (2022-12-01T20:00:00Z) - CGOF++: Controllable 3D Face Synthesis with Conditional Generative
Occupancy Fields [52.14985242487535]
生成した顔画像の3次元制御性を実現する条件付き3次元顔合成フレームワークを提案する。
中心となるのは条件付き生成操作場(cGOF++)であり、それによって生成された顔の形状が与えられた3Dモルファブルモデル(3DMM)メッシュに適合するように効果的に強制される。
提案手法の有効性を検証し, 最先端の2次元顔合成法よりも高精度な3次元制御性を示す実験を行った。
論文 参考訳(メタデータ) (2022-11-23T19:02:50Z) - Next3D: Generative Neural Texture Rasterization for 3D-Aware Head
Avatars [36.4402388864691]
3D-Aware Generative Adversarial Network (GANs) は, 単一視点2D画像のコレクションのみを用いて, 高忠実かつ多視点の顔画像を合成する。
最近の研究は、3D Morphable Face Model (3DMM) を用いて、生成放射場における変形を明示的または暗黙的に記述している。
本研究では,非構造化2次元画像から生成的,高品質,かつ3D一貫性のある顔アバターの教師なし学習のための新しい3D GANフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-21T06:40:46Z) - AniFaceGAN: Animatable 3D-Aware Face Image Generation for Video Avatars [71.00322191446203]
2D生成モデルは、異なるカメラ視点で画像をレンダリングする際に、しばしば望ましくないアーティファクトに悩まされる。
近年,3次元シーン表現を活用することで,3次元カメラポーズのゆがみを明示するために2次元GANを拡張している。
マルチビュー一貫した顔アニメーション生成のためのアニマタブルな3D対応GANを提案する。
論文 参考訳(メタデータ) (2022-10-12T17:59:56Z) - 3DMM-RF: Convolutional Radiance Fields for 3D Face Modeling [111.98096975078158]
本稿では,1つのパスを1つのパスで合成し,必要なニューラルネットワークのレンダリングサンプルのみを合成するスタイルベースの生成ネットワークを提案する。
このモデルは、任意のポーズと照明の顔画像に正確に適合し、顔の特徴を抽出し、制御可能な条件下で顔を再レンダリングするために使用できることを示す。
論文 参考訳(メタデータ) (2022-09-15T15:28:45Z) - Free-HeadGAN: Neural Talking Head Synthesis with Explicit Gaze Control [54.079327030892244]
Free-HeadGANは、人為的なニューラルトーキングヘッド合成システムである。
本研究では,3次元顔のランドマークが不足している顔のモデリングが,最先端の生成性能を達成するのに十分であることを示す。
論文 参考訳(メタデータ) (2022-08-03T16:46:08Z) - Controllable 3D Face Synthesis with Conditional Generative Occupancy
Fields [40.2714783162419]
生成した顔画像の3次元制御性を実現する条件付き3次元顔合成フレームワークを提案する。
中心となるのは条件付き生成活動場(cGOF)で、生成された顔の形状を効果的に強制し、与えられた3Dモルファブルモデル(3DMM)メッシュにコミットする。
実験により,高忠実度顔画像の生成が可能な提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-16T17:58:42Z) - Disentangled3D: Learning a 3D Generative Model with Disentangled
Geometry and Appearance from Monocular Images [94.49117671450531]
最先端の3D生成モデルは、合成に神経的な3Dボリューム表現を使用するGANである。
本稿では,単分子観察だけで物体の絡み合ったモデルを学ぶことができる3D GANを設計する。
論文 参考訳(メタデータ) (2022-03-29T22:03:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。