論文の概要: 3D face reconstruction with dense landmarks
- arxiv url: http://arxiv.org/abs/2204.02776v1
- Date: Wed, 6 Apr 2022 12:43:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 14:03:31.948578
- Title: 3D face reconstruction with dense landmarks
- Title(参考訳): 高密度ランドマークを用いた3次元顔再建
- Authors: Erroll Wood, Tadas Baltrusaitis, Charlie Hewitt, Matthew Johnson,
Jingjing Shen, Nikola Milosavljevic, Daniel Wilde, Stephan Garbin, Toby
Sharp, Ivan Stojiljkovic, Tom Cashman, Julien Valentin
- Abstract要約: 目と歯を含む頭部全体をカバーし, いつもの10倍のランドマークを正確に予測する最初の方法を提案する。
これは完全なランドマークアノテーションを保証する合成トレーニングデータを使用して達成される。
単眼と多眼の両方のシナリオにおいて,顔の形状を正確に表現し,顔の形状情報をフレーム間で統合するための理想的な信号として,濃密なランドマークが有用であることを示す。
- 参考スコア(独自算出の注目度): 7.33116352373381
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Landmarks often play a key role in face analysis, but many aspects of
identity or expression cannot be represented by sparse landmarks alone. Thus,
in order to reconstruct faces more accurately, landmarks are often combined
with additional signals like depth images or techniques like differentiable
rendering. Can we keep things simple by just using more landmarks? In answer,
we present the first method that accurately predicts 10x as many landmarks as
usual, covering the whole head, including the eyes and teeth. This is
accomplished using synthetic training data, which guarantees perfect landmark
annotations. By fitting a morphable model to these dense landmarks, we achieve
state-of-the-art results for monocular 3D face reconstruction in the wild. We
show that dense landmarks are an ideal signal for integrating face shape
information across frames by demonstrating accurate and expressive facial
performance capture in both monocular and multi-view scenarios. This approach
is also highly efficient: we can predict dense landmarks and fit our 3D face
model at over 150FPS on a single CPU thread.
- Abstract(参考訳): ランドマークはしばしば顔分析において重要な役割を果たすが、アイデンティティや表現の多くの側面はスパースランドマークだけでは表現できない。
したがって、顔をより正確に再構築するために、ランドマークは深度画像や微分レンダリングのような技法のような追加の信号と組み合わせられることが多い。
ランドマークを増やすだけで、物事をシンプルに保てますか?
回答として,目と歯を含む頭部全体をカバーし,通常の10倍のランドマークを正確に予測する最初の方法を提案する。
これは完全なランドマークアノテーションを保証する合成トレーニングデータを使用して達成される。
これらの密集したランドマークに変形可能なモデルを適合させることで,野生の単眼的3d顔再構成の最先端の結果を得る。
単眼と多眼の両方のシナリオにおいて,顔の形状を正確に表現し,顔の形状情報をフレーム間で統合するための理想的な信号であることを示す。
密度の高いランドマークを予測し、1つのcpuスレッドで150fps以上の3d顔モデルに適合させることができます。
関連論文リスト
- ID-to-3D: Expressive ID-guided 3D Heads via Score Distillation Sampling [96.87575334960258]
ID-to-3D(ID-to-3D)は、不整合表現を用いたIDとテキスト誘導型3次元頭部を生成する方法である。
前例のないアイデンティティ一貫性と高品質なテクスチャと幾何生成を実現する。
論文 参考訳(メタデータ) (2024-05-26T13:36:45Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - HQ3DAvatar: High Quality Controllable 3D Head Avatar [65.70885416855782]
本稿では,高フォトリアリスティックなデジタルヘッドアバターを構築するための新しいアプローチを提案する。
本手法はニューラルネットワークによってパラメータ化された暗黙関数を用いて標準空間を学習する。
テスト時,本手法は単眼のRGBビデオによって駆動される。
論文 参考訳(メタデータ) (2023-03-25T13:56:33Z) - Facial Geometric Detail Recovery via Implicit Representation [147.07961322377685]
そこで本研究では,一眼の顔画像のみを用いて,テクスチャガイドを用いた幾何的細部復元手法を提案する。
提案手法は,高品質なテクスチャ補完と暗黙の面の強力な表現性を組み合わせたものである。
本手法は, 顔の正確な細部を復元するだけでなく, 正常部, アルベド部, シェーディング部を自己監督的に分解する。
論文 参考訳(メタデータ) (2022-03-18T01:42:59Z) - AvatarMe++: Facial Shape and BRDF Inference with Photorealistic
Rendering-Aware GANs [119.23922747230193]
そこで本研究では,レンダリング可能な3次元顔形状とBRDFの再構成を,単一の"in-the-wild"画像から実現した最初の手法を提案する。
本手法は,1枚の低解像度画像から,高解像度の3次元顔の再構成を行う。
論文 参考訳(メタデータ) (2021-12-11T11:36:30Z) - FaceScape: 3D Facial Dataset and Benchmark for Single-View 3D Face
Reconstruction [29.920622006999732]
大規模な3次元顔データセット、FaceScape、およびそれに対応するベンチマークを提示し、単視点顔の3次元再構成を評価する。
FaceScapeデータをトレーニングすることにより、単一の画像入力から精巧な3次元顔モデルを予測する新しいアルゴリズムを提案する。
また、FaceScapeデータを用いて、最新の単一視点顔再構成手法の評価を行う。
論文 参考訳(メタデータ) (2021-11-01T16:48:34Z) - Topologically Consistent Multi-View Face Inference Using Volumetric
Sampling [25.001398662643986]
ToFuは、幾何推論フレームワークで、アイデンティティと式をまたいだトポロジ的に一貫したメッシュを生成することができる。
新たなプログレッシブメッシュ生成ネットワークは、顔のトポロジ的構造を特徴量に埋め込む。
これらの高品質な資産は、アバターの作成、アニメーション、物理的にベースとしたスキンレンダリングのためのプロダクションスタジオで容易に利用することができる。
論文 参考訳(メタデータ) (2021-10-06T17:55:08Z) - Weakly-Supervised Multi-Face 3D Reconstruction [45.864415499303405]
多面的3D再構築のための効果的なエンドツーエンドフレームワークを提案する。
各画像の再構成された顔に対して、同じグローバルカメラモデルを採用し、3dシーンにおける相対的な頭部位置と向きを復元することができる。
論文 参考訳(メタデータ) (2021-01-06T13:15:21Z) - DeepFaceFlow: In-the-wild Dense 3D Facial Motion Estimation [56.56575063461169]
DeepFaceFlowは、3D非剛体顔の流れを推定するための堅牢で高速で高精度なフレームワークである。
私たちのフレームワークは、2つの非常に大規模な顔ビデオデータセットでトレーニングされ、テストされました。
登録された画像に対して,60fpsで3次元フローマップを生成する。
論文 参考訳(メタデータ) (2020-05-14T23:56:48Z) - FaceScape: a Large-scale High Quality 3D Face Dataset and Detailed
Riggable 3D Face Prediction [39.95272819738226]
単一画像入力から精巧な3次元顔モデルを予測できる新しいアルゴリズムを提案する。
FaceScapeデータセットは18,760のテクスチャ付き3D顔を提供する。
論文 参考訳(メタデータ) (2020-03-31T07:11:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。