論文の概要: Synthesizing Human Faces using Latent Space Factorization and Local
Weights (Extended Version)
- arxiv url: http://arxiv.org/abs/2107.08737v1
- Date: Mon, 19 Jul 2021 10:17:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 14:44:42.035197
- Title: Synthesizing Human Faces using Latent Space Factorization and Local
Weights (Extended Version)
- Title(参考訳): 潜時空間因子化と局所重みを用いた顔合成(拡張版)
- Authors: Minyoung Kim and Young J. Kim
- Abstract要約: 提案したモデルは、顔メッシュ全体を学習しながら、顔の部分的な操作を可能にする。
顔全体の潜在空間を、顔の異なる部分を示す部分空間に分解する。
- 参考スコア(独自算出の注目度): 24.888957468547744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a 3D face generative model with local weights to increase the
model's variations and expressiveness. The proposed model allows partial
manipulation of the face while still learning the whole face mesh. For this
purpose, we address an effective way to extract local facial features from the
entire data and explore a way to manipulate them during a holistic generation.
First, we factorize the latent space of the whole face to the subspace
indicating different parts of the face. In addition, local weights generated by
non-negative matrix factorization are applied to the factorized latent space so
that the decomposed part space is semantically meaningful. We experiment with
our model and observe that effective facial part manipulation is possible and
that the model's expressiveness is improved.
- Abstract(参考訳): 本研究では,局所的な重みを持つ3次元顔生成モデルを提案する。
提案モデルは、顔メッシュ全体を学習しながら、顔の部分的な操作を可能にする。
そこで本研究では,全データから局所的な顔特徴を抽出し,全体的生成時の操作方法を検討するための効果的な手法を提案する。
まず、顔全体の潜在空間を、顔の異なる部分を示す部分空間に分解する。
さらに、非負行列分解によって生じる局所重みを因子化潜在空間に適用し、分解された部分空間が意味論的に意味を持つようにする。
我々は,本モデルを用いて,効果的な顔部分操作が可能であり,表現性が向上することが確認された。
関連論文リスト
- FitDiff: Robust monocular 3D facial shape and reflectance estimation using Diffusion Models [79.65289816077629]
拡散型3次元顔アバター生成モデルFitDiffを提案する。
本モデルでは,「近距離」2次元顔画像から抽出したアイデンティティ埋め込みを利用して,再現性のある顔アバターを高精度に生成する。
FitDiffは、顔認識の埋め込みを前提とした最初の3D LDMであり、一般的なレンダリングエンジンで使用可能な、ライティング可能な人間のアバターを再構築する。
論文 参考訳(メタデータ) (2023-12-07T17:35:49Z) - DSFNet: Dual Space Fusion Network for Occlusion-Robust 3D Dense Face
Alignment [34.223372986832544]
最先端の3DMMベースの手法は、モデルの係数を直接回帰する。
本稿では,画像とモデル空間予測の両方の利点を組み合わせた融合ネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T08:43:37Z) - BlendFields: Few-Shot Example-Driven Facial Modeling [35.86727715239676]
本稿では,従来のコンピュータグラフィックス技術からインスピレーションを得てギャップを埋める手法を提案する。
見えない表現は、極端なポーズのスパースセットからの外観をブレンドすることによってモデル化される。
本研究では, 顔の滑らかな体積変形の上に, きめ細かな効果を加えることによって, 表情を一般化する手法を示す。
論文 参考訳(メタデータ) (2023-05-12T14:30:07Z) - Controllable 3D Generative Adversarial Face Model via Disentangling
Shape and Appearance [63.13801759915835]
3次元顔モデリングはコンピュータビジョンとコンピュータグラフィックスの研究の活発な領域である。
本稿では,識別と表現を分離できる新しい3次元顔生成モデルを提案する。
論文 参考訳(メタデータ) (2022-08-30T13:40:48Z) - FaceTuneGAN: Face Autoencoder for Convolutional Expression Transfer
Using Neural Generative Adversarial Networks [0.7043489166804575]
顔の識別と表情を分離して符号化する新しい3次元顔モデル表現であるFaceTuneGANを提案する。
本稿では,2次元領域で使用されている画像と画像の変換ネットワークを3次元顔形状に適応させる手法を提案する。
論文 参考訳(メタデータ) (2021-12-01T14:42:03Z) - Learning to Aggregate and Personalize 3D Face from In-the-Wild Photo
Collection [65.92058628082322]
非パラメトリックフェースモデリングは形状仮定なしで画像からのみ3次元フェースを再構成することを目的としている。
本稿では,教師なしのロバストな3次元顔モデリングのための学習・アグリゲート・パーソナライズ・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T03:10:17Z) - SCALE: Modeling Clothed Humans with a Surface Codec of Articulated Local
Elements [62.652588951757764]
衣服のモデル化と再構成は、調音性、非剛性変形、衣服の種類や地形の変化などにより困難である。
最近の研究では、ニューラルネットワークを使ってローカルな表面要素をパラメータ化している。
まず、人間の体モデルに基づいて表面要素を変形させます。
第2に,局所的な特徴から局所的な幾何学を回帰させることにより,既存の神経表面要素の制限を解消する。
論文 参考訳(メタデータ) (2021-04-15T17:59:39Z) - Combining Implicit Function Learning and Parametric Models for 3D Human
Reconstruction [123.62341095156611]
深層学習近似として表される暗黙の関数は、3次元曲面の再構成に強力である。
このような機能は、コンピュータグラフィックスとコンピュータビジョンの両方に柔軟なモデルを構築するのに不可欠である。
詳細に富んだ暗黙関数とパラメトリック表現を組み合わせた方法論を提案する。
論文 参考訳(メタデータ) (2020-07-22T13:46:14Z) - Personalized Face Modeling for Improved Face Reconstruction and Motion
Retargeting [22.24046752858929]
本稿では、ユーザごとのパーソナライズされた顔モデルとフレームごとの顔の動きパラメータを共同で学習するエンドツーエンドフレームワークを提案する。
具体的には、パーソナライズされた修正を予測することによって、ユーザ固有の表現と動的(表現固有の)アルベドマップのブレンドを学習する。
実験結果から, 顔の微細な動態を広範囲の状況で正確に把握できることが示唆された。
論文 参考訳(メタデータ) (2020-07-14T01:30:14Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。