論文の概要: FitMe: Deep Photorealistic 3D Morphable Model Avatars
- arxiv url: http://arxiv.org/abs/2305.09641v1
- Date: Tue, 16 May 2023 17:42:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 13:41:20.918432
- Title: FitMe: Deep Photorealistic 3D Morphable Model Avatars
- Title(参考訳): fitme: 深層フォトリアリスティックな3d morphableモデルアバター
- Authors: Alexandros Lattas, Stylianos Moschoglou, Stylianos Ploumpis, Baris
Gecer, Jiankang Deng, Stefanos Zafeiriou
- Abstract要約: 顔の反射率モデルと異なるレンダリングパイプラインであるFitMeを紹介する。
FitMe は、単一の "in-the-wild" 顔画像に対して、最先端のリフレクタンス取得とアイデンティティ保護を実現する。
最近の暗黙のアバター再構成とは対照的に、FitMeはわずか1分で、リライト可能なメッシュとテクスチャベースのアバターを生成する。
- 参考スコア(独自算出の注目度): 119.03325450951074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce FitMe, a facial reflectance model and a
differentiable rendering optimization pipeline, that can be used to acquire
high-fidelity renderable human avatars from single or multiple images. The
model consists of a multi-modal style-based generator, that captures facial
appearance in terms of diffuse and specular reflectance, and a PCA-based shape
model. We employ a fast differentiable rendering process that can be used in an
optimization pipeline, while also achieving photorealistic facial shading. Our
optimization process accurately captures both the facial reflectance and shape
in high-detail, by exploiting the expressivity of the style-based latent
representation and of our shape model. FitMe achieves state-of-the-art
reflectance acquisition and identity preservation on single "in-the-wild"
facial images, while it produces impressive scan-like results, when given
multiple unconstrained facial images pertaining to the same identity. In
contrast with recent implicit avatar reconstructions, FitMe requires only one
minute and produces relightable mesh and texture-based avatars, that can be
used by end-user applications.
- Abstract(参考訳): 本稿では、顔の反射率モデルであるFitMeと、複数の画像から高忠実性レンダリング可能な人体アバターを取得するために使用可能なレンダリング最適化パイプラインについて紹介する。
このモデルは、拡散反射率と鏡面反射率の観点から顔の外観を捉えるマルチモーダルなスタイルベースの生成器と、pcaベースの形状モデルで構成されている。
我々は、高速で微分可能なレンダリングプロセスを採用し、最適化パイプラインで使用できると同時に、フォトリアリスティックな顔シェーディングを実現する。
提案手法は, 顔の反射率と形状を高精度に把握し, スタイルベースの潜在表現と形状モデルの表現性を利用する。
FitMeは、単一の「ワイルド」顔画像に対して、最先端の反射率取得とアイデンティティ保存を実現し、同じアイデンティティに関連する複数の制約のない顔画像を与えると、印象的なスキャンライクな結果が得られる。
最近の暗黙的なアバター再構築とは対照的に、FitMeはわずか1分で、エンドユーザアプリケーションで使用可能な、リライト可能なメッシュとテクスチャベースのアバターを生成する。
関連論文リスト
- SPARK: Self-supervised Personalized Real-time Monocular Face Capture [6.093606972415841]
現在の最先端技術では、パラメトリックな3D顔モデルを幅広いアイデンティティにわたってリアルタイムに再現することができる。
本稿では,被写体の制約のない映像を先行情報として活用し,高精度な3次元顔撮影手法を提案する。
論文 参考訳(メタデータ) (2024-09-12T12:30:04Z) - FitDiff: Robust monocular 3D facial shape and reflectance estimation using Diffusion Models [79.65289816077629]
拡散型3次元顔アバター生成モデルFitDiffを提案する。
本モデルでは,「近距離」2次元顔画像から抽出したアイデンティティ埋め込みを利用して,再現性のある顔アバターを高精度に生成する。
FitDiffは、顔認識の埋め込みを前提とした最初の3D LDMであり、一般的なレンダリングエンジンで使用可能な、ライティング可能な人間のアバターを再構築する。
論文 参考訳(メタデータ) (2023-12-07T17:35:49Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - 3DMM-RF: Convolutional Radiance Fields for 3D Face Modeling [111.98096975078158]
本稿では,1つのパスを1つのパスで合成し,必要なニューラルネットワークのレンダリングサンプルのみを合成するスタイルベースの生成ネットワークを提案する。
このモデルは、任意のポーズと照明の顔画像に正確に適合し、顔の特徴を抽出し、制御可能な条件下で顔を再レンダリングするために使用できることを示す。
論文 参考訳(メタデータ) (2022-09-15T15:28:45Z) - AvatarMe++: Facial Shape and BRDF Inference with Photorealistic
Rendering-Aware GANs [119.23922747230193]
そこで本研究では,レンダリング可能な3次元顔形状とBRDFの再構成を,単一の"in-the-wild"画像から実現した最初の手法を提案する。
本手法は,1枚の低解像度画像から,高解像度の3次元顔の再構成を行う。
論文 参考訳(メタデータ) (2021-12-11T11:36:30Z) - MoFaNeRF: Morphable Facial Neural Radiance Field [12.443638713719357]
MoFaNeRFは、自由視点画像をベクトル空間で符号化された顔の形、表情、外観にマッピングするパラメトリックモデルである。
識別特異的変調とエンコーダテクスチャを導入することにより、正確な測光の詳細を合成する。
本モデルでは,画像ベースのフィッティング,ランダム生成,顔リギング,顔編集,新しいビューなど,複数のアプリケーションに強い能力を示す。
論文 参考訳(メタデータ) (2021-12-04T11:25:28Z) - Inverting Generative Adversarial Renderer for Face Reconstruction [58.45125455811038]
本稿では,GAR(Generative Adversa Renderer)について紹介する。
GARは、グラフィックルールに頼るのではなく、複雑な現実世界のイメージをモデル化することを学ぶ。
本手法は,複数顔再構成における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-06T04:16:06Z) - Personalized Face Modeling for Improved Face Reconstruction and Motion
Retargeting [22.24046752858929]
本稿では、ユーザごとのパーソナライズされた顔モデルとフレームごとの顔の動きパラメータを共同で学習するエンドツーエンドフレームワークを提案する。
具体的には、パーソナライズされた修正を予測することによって、ユーザ固有の表現と動的(表現固有の)アルベドマップのブレンドを学習する。
実験結果から, 顔の微細な動態を広範囲の状況で正確に把握できることが示唆された。
論文 参考訳(メタデータ) (2020-07-14T01:30:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。