論文の概要: A Morphable Face Albedo Model
- arxiv url: http://arxiv.org/abs/2004.02711v2
- Date: Fri, 19 Jun 2020 13:39:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 07:30:59.616440
- Title: A Morphable Face Albedo Model
- Title(参考訳): 変形可能な顔アルベドモデル
- Authors: William A.P. Smith, Alassane Seck, Hannah Dee, Bernard Tiddeman,
Joshua Tenenbaum, Bernhard Egger
- Abstract要約: そこで本研究では,真に内在的な拡散と特異なアルベドマップを得るための,新しい光ステージ捕捉処理パイプラインを提案する。
このパイプラインを使用して、50のスキャンのデータセットをキャプチャし、23のスキャンで公開されている唯一のアルベドデータセット(DRFE)と組み合わせます。
これにより、最初の変形可能な顔アルベドモデルを構築することができます。
- 参考スコア(独自算出の注目度): 23.80729541081976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we bring together two divergent strands of research:
photometric face capture and statistical 3D face appearance modelling. We
propose a novel lightstage capture and processing pipeline for acquiring
ear-to-ear, truly intrinsic diffuse and specular albedo maps that fully factor
out the effects of illumination, camera and geometry. Using this pipeline, we
capture a dataset of 50 scans and combine them with the only existing publicly
available albedo dataset (3DRFE) of 23 scans. This allows us to build the first
morphable face albedo model. We believe this is the first statistical analysis
of the variability of facial specular albedo maps. This model can be used as a
plug in replacement for the texture model of the Basel Face Model (BFM) or
FLAME and we make the model publicly available. We ensure careful spectral
calibration such that our model is built in a linear sRGB space, suitable for
inverse rendering of images taken by typical cameras. We demonstrate our model
in a state of the art analysis-by-synthesis 3DMM fitting pipeline, are the
first to integrate specular map estimation and outperform the BFM in albedo
reconstruction.
- Abstract(参考訳): 本稿では,光学的顔キャプチャーと統計的3次元顔の外観モデリングという2つの異なる研究成果をまとめる。
照明, カメラ, 幾何学的効果を完全に決定する, 耳から耳まで, 真に内在的な拡散と特異なアルベドマップを得るための新しい光ステージ捕捉処理パイプラインを提案する。
このパイプラインを使用して、50のスキャンのデータセットをキャプチャし、23のスキャンで公開されている唯一のアルベドデータセット(DRFE)と組み合わせます。
これにより、最初の変形可能な顔アルベドモデルを構築することができます。
これは、顔の鏡面アルベド地図の変動性に関する最初の統計解析であると信じている。
このモデルは、バーゼルフェイスモデル(bfm)やフレイムのテクスチャモデルのプラグイン代替として使用することができ、モデルを公開しています。
我々は,通常のカメラで撮影した画像の逆レンダリングに適した線形sRGB空間でモデルを構築するために,慎重にスペクトル校正を行う。
本研究は,3dmmフィッティングパイプラインを用いて,鏡面地図推定を初めて統合し,アルベド復元におけるbfmよりも優れるモデルを示す。
関連論文リスト
- FitDiff: Robust monocular 3D facial shape and reflectance estimation using Diffusion Models [79.65289816077629]
拡散型3次元顔アバター生成モデルFitDiffを提案する。
本モデルでは,「近距離」2次元顔画像から抽出したアイデンティティ埋め込みを利用して,再現性のある顔アバターを高精度に生成する。
FitDiffは、顔認識の埋め込みを前提とした最初の3D LDMであり、一般的なレンダリングエンジンで使用可能な、ライティング可能な人間のアバターを再構築する。
論文 参考訳(メタデータ) (2023-12-07T17:35:49Z) - RichDreamer: A Generalizable Normal-Depth Diffusion Model for Detail
Richness in Text-to-3D [31.77212284992657]
我々は3次元生成のための一般化可能な正規-深度拡散モデルを学ぶ。
アルベド拡散モデルを導入し、アルベド成分にデータ駆動的制約を課す。
実験の結果,既存のテキスト・ツー・3Dパイプラインに組み込むと,モデルのリッチさが著しく向上することがわかった。
論文 参考訳(メタデータ) (2023-11-28T16:22:33Z) - Relightify: Relightable 3D Faces from a Single Image via Diffusion
Models [86.3927548091627]
単一画像からの3次元顔BRDF再構成を高精度に行うために,拡散モデルを用いた最初のアプローチを提案する。
既存の手法とは対照的に,観測されたテクスチャを直接入力画像から取得することで,より忠実で一貫した推定が可能となる。
論文 参考訳(メタデータ) (2023-05-10T11:57:49Z) - Learning a 3D Morphable Face Reflectance Model from Low-cost Data [21.37535100469443]
既存の作業では、Light Stageデータを使用して拡散とスペクトルアルベドのためのパラメトリックモデルを構築している。
本稿では,低コストで利用可能なデータのみを用いた空間変化BRDFを用いた最初の3次元顔反射モデルを提案する。
論文 参考訳(メタデータ) (2023-03-21T09:08:30Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - FaceVerse: a Fine-grained and Detail-controllable 3D Face Morphable
Model from a Hybrid Dataset [36.688730105295015]
FaceVerseは60Kの融合RGB-D画像と2Kの高忠実度3Dヘッドスキャンモデルを含むハイブリッド東アジアの顔データセットから構築されている。
粗いモジュールでは、大規模なRGB-D画像からベースパラメトリックモデルを生成し、性別や年齢などによって正確な3D顔モデルを予測することができる。
高忠実度スキャンモデルで訓練された条件付きスタイルGANアーキテクチャを導入し、精巧な顔の幾何学的およびテクスチャ的詳細を表現した。
論文 参考訳(メタデータ) (2022-03-26T12:13:14Z) - LiP-Flow: Learning Inference-time Priors for Codec Avatars via
Normalizing Flows in Latent Space [90.74976459491303]
実行時入力に条件付けされた先行モデルを導入し、この先行空間を潜伏空間の正規化フローを介して3次元顔モデルに結びつける。
正規化フローは2つの表現空間をブリッジし、潜在サンプルをある領域から別の領域に変換することで、潜在可能性の目的を定義する。
提案手法は,表情のダイナミックスや微妙な表現をよりよく捉えることによって,表現的かつ効果的に先行することを示す。
論文 参考訳(メタデータ) (2022-03-15T13:22:57Z) - AvatarMe++: Facial Shape and BRDF Inference with Photorealistic
Rendering-Aware GANs [119.23922747230193]
そこで本研究では,レンダリング可能な3次元顔形状とBRDFの再構成を,単一の"in-the-wild"画像から実現した最初の手法を提案する。
本手法は,1枚の低解像度画像から,高解像度の3次元顔の再構成を行う。
論文 参考訳(メタデータ) (2021-12-11T11:36:30Z) - Deep Learning compatible Differentiable X-ray Projections for Inverse
Rendering [8.926091372824942]
距離マップを生成するために、メッシュ内部の線状構造によって移動される距離を導出して微分可能とする。
骨盤の実際の2次元蛍光画像から3次元モデルを再構成する逆問題(逆問題)を解くことにより,その応用を示す。
論文 参考訳(メタデータ) (2021-02-04T22:06:05Z) - Learning Complete 3D Morphable Face Models from Images and Videos [88.34033810328201]
本稿では,画像やビデオから顔形状,アルベド,表現の完全な3次元モデルを学ぶための最初のアプローチを提案する。
既存の手法よりも,学習モデルの方がより一般化し,高品質な画像ベース再構築につながることを示す。
論文 参考訳(メタデータ) (2020-10-04T20:51:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。