論文の概要: FaceScape: 3D Facial Dataset and Benchmark for Single-View 3D Face
Reconstruction
- arxiv url: http://arxiv.org/abs/2111.01082v2
- Date: Fri, 15 Sep 2023 20:00:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 02:24:05.453134
- Title: FaceScape: 3D Facial Dataset and Benchmark for Single-View 3D Face
Reconstruction
- Title(参考訳): FaceScape: 1次元顔再構成のための3次元顔データセットとベンチマーク
- Authors: Hao Zhu, Haotian Yang, Longwei Guo, Yidi Zhang, Yanru Wang, Mingkai
Huang, Menghua Wu, Qiu Shen, Ruigang Yang, Xun Cao
- Abstract要約: 大規模な3次元顔データセット、FaceScape、およびそれに対応するベンチマークを提示し、単視点顔の3次元再構成を評価する。
FaceScapeデータをトレーニングすることにより、単一の画像入力から精巧な3次元顔モデルを予測する新しいアルゴリズムを提案する。
また、FaceScapeデータを用いて、最新の単一視点顔再構成手法の評価を行う。
- 参考スコア(独自算出の注目度): 29.920622006999732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a large-scale detailed 3D face dataset, FaceScape,
and the corresponding benchmark to evaluate single-view facial 3D
reconstruction. By training on FaceScape data, a novel algorithm is proposed to
predict elaborate riggable 3D face models from a single image input. FaceScape
dataset releases $16,940$ textured 3D faces, captured from $847$ subjects and
each with $20$ specific expressions. The 3D models contain the pore-level
facial geometry that is also processed to be topologically uniform. These fine
3D facial models can be represented as a 3D morphable model for coarse shapes
and displacement maps for detailed geometry. Taking advantage of the
large-scale and high-accuracy dataset, a novel algorithm is further proposed to
learn the expression-specific dynamic details using a deep neural network. The
learned relationship serves as the foundation of our 3D face prediction system
from a single image input. Different from most previous methods, our predicted
3D models are riggable with highly detailed geometry under different
expressions. We also use FaceScape data to generate the in-the-wild and
in-the-lab benchmark to evaluate recent methods of single-view face
reconstruction. The accuracy is reported and analyzed on the dimensions of
camera pose and focal length, which provides a faithful and comprehensive
evaluation and reveals new challenges. The unprecedented dataset, benchmark,
and code have been released at https://github.com/zhuhao-nju/facescape.
- Abstract(参考訳): 本稿では,大規模な3次元顔データセット,FaceScape,およびそれに対応するベンチマークについて述べる。
FaceScapeデータをトレーニングすることにより、単一の画像入力から精巧な3次元顔モデルを予測する新しいアルゴリズムを提案する。
FaceScapeのデータセットは、テクスチャ付き3D顔が16,940ドル、被験者が847ドル、それぞれ20ドルだ。
3Dモデルは、トポロジカルに均一であるように処理される細孔レベルの顔形状を含んでいる。
これらの微細な3次元顔モデルは、詳細な幾何学のための粗い形状と変位マップの3次元形態モデルとして表現することができる。
大規模かつ高精度なデータセットを活用して、深層ニューラルネットワークを用いて表現固有の動的詳細を学習する新しいアルゴリズムが提案されている。
学習された関係は、単一の画像入力から3次元顔予測システムの基礎となる。
従来の手法と異なり、予測した3dモデルは、異なる表現の下で高度に詳細な幾何学を組み込むことができる。
また、FaceScapeデータを用いて、最新の単一視点顔再構成手法の評価を行う。
精度はカメラのポーズと焦点距離の寸法で報告され分析され、忠実で包括的な評価が得られ、新たな課題が浮かび上がっている。
前例のないデータセット、ベンチマーク、コードがhttps://github.com/zhuhao-nju/facescapeでリリースされた。
関連論文リスト
- FAMOUS: High-Fidelity Monocular 3D Human Digitization Using View Synthesis [51.193297565630886]
テクスチャを正確に推測することの難しさは、特に正面視画像の人物の背中のような不明瞭な領域に残る。
このテクスチャ予測の制限は、大規模で多様な3Dデータセットの不足に起因する。
本稿では,3次元デジタル化におけるテクスチャと形状予測の両立を図るために,広範囲な2次元ファッションデータセットを活用することを提案する。
論文 参考訳(メタデータ) (2024-10-13T01:25:05Z) - A Large-Scale 3D Face Mesh Video Dataset via Neural Re-parameterized
Optimization [17.938604013181426]
ビデオ上での3次元顔メッシュ擬似アノテーションであるNeuFaceを提案する。
我々は、NeuFace-datasetと呼ばれる大規模なフェイスビデオに、ビュー/フレーム毎の正確で一貫したフェイスメッシュを注釈付けします。
データセット内の3次元顔の自然性と多様性を利用して、3次元顔関連タスクにおけるデータセットの有用性を実証する。
論文 参考訳(メタデータ) (2023-10-04T23:24:22Z) - A lightweight 3D dense facial landmark estimation model from position
map data [0.8508775813669867]
顔全体にわたって520個のキーポイントを含む密集キーポイントトレーニングデータセットを作成するパイプラインを提案する。
生成されたデータを用いて、軽量なMobileNetベースの回帰モデルをトレーニングする。
実験結果から, モデルサイズが小さく, 計算コストが最小であるにもかかわらず, トレーニングされたモデルでは, 既存の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-08-29T09:53:10Z) - RAFaRe: Learning Robust and Accurate Non-parametric 3D Face
Reconstruction from Pseudo 2D&3D Pairs [13.11105614044699]
単視3次元顔再構成(SVFR)のための頑健で正確な非パラメトリック手法を提案する。
大規模な擬似2D&3Dデータセットは、まず詳細な3D顔をレンダリングし、野生の画像の顔と描画された顔とを交換することによって作成される。
本モデルは,FaceScape-wild/labおよびMICCベンチマークにおいて,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-10T19:40:26Z) - Generating 2D and 3D Master Faces for Dictionary Attacks with a
Network-Assisted Latent Space Evolution [68.8204255655161]
マスターフェイス(英: master face)とは、人口の比率の高い顔認証をパスする顔画像である。
2次元および3次元の顔認証モデルに対して,これらの顔の最適化を行う。
3Dでは,2次元スタイルGAN2ジェネレータを用いて顔を生成し,深部3次元顔再構成ネットワークを用いて3次元構造を予測する。
論文 参考訳(メタデータ) (2022-11-25T09:15:38Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - Facial Geometric Detail Recovery via Implicit Representation [147.07961322377685]
そこで本研究では,一眼の顔画像のみを用いて,テクスチャガイドを用いた幾何的細部復元手法を提案する。
提案手法は,高品質なテクスチャ補完と暗黙の面の強力な表現性を組み合わせたものである。
本手法は, 顔の正確な細部を復元するだけでなく, 正常部, アルベド部, シェーディング部を自己監督的に分解する。
論文 参考訳(メタデータ) (2022-03-18T01:42:59Z) - 3D Face Morphing Attacks: Generation, Vulnerability and Detection [3.700129710233692]
顔認識システムはモルヒネ攻撃に弱いことが判明した。
本研究は,3次元の顔変形攻撃を発生させる新しい方向を示す。
論文 参考訳(メタデータ) (2022-01-10T16:53:39Z) - FaceDet3D: Facial Expressions with 3D Geometric Detail Prediction [62.5557724039217]
表情は3d顔形状の様々な高レベルな詳細を誘導する。
人間の顔のモルフォラブルモデル(3DMM)は、PCAベースの表現でそのような細かい詳細をキャプチャできません。
faceet3dは,1つの画像から,任意の対象表現と一致する幾何学的顔詳細を生成する,初歩的な手法である。
論文 参考訳(メタデータ) (2020-12-14T23:07:38Z) - Learning an Animatable Detailed 3D Face Model from In-The-Wild Images [50.09971525995828]
本研究では, 実物的詳細と実物的画像から3次元顔レグレッサーを共同学習する第1の手法を提案する。
DECAモデルは、低次元の潜時表現からUV変位マップを堅牢に生成するように訓練されています。
本稿では,人固有の細部と表情依存のしわを区別する新しい細部一貫性損失を提案する。
論文 参考訳(メタデータ) (2020-12-07T19:30:45Z) - FaceScape: a Large-scale High Quality 3D Face Dataset and Detailed
Riggable 3D Face Prediction [39.95272819738226]
単一画像入力から精巧な3次元顔モデルを予測できる新しいアルゴリズムを提案する。
FaceScapeデータセットは18,760のテクスチャ付き3D顔を提供する。
論文 参考訳(メタデータ) (2020-03-31T07:11:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。