論文の概要: Learning Formation of Physically-Based Face Attributes
- arxiv url: http://arxiv.org/abs/2004.03458v2
- Date: Fri, 24 Apr 2020 03:29:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 13:05:11.075880
- Title: Learning Formation of Physically-Based Face Attributes
- Title(参考訳): 身体的顔特性の学習形成
- Authors: Ruilong Li, Karl Bladin, Yajie Zhao, Chinmay Chinara, Owen Ingraham,
Pengda Xiang, Xinglei Ren, Pratusha Prasad, Bipin Kishore, Jun Xing, Hao Li
- Abstract要約: 4000個の高分解能顔スキャンを組み合わせたデータセットに基づいて,非線形形態素顔モデルを提案する。
我々のディープラーニングに基づく生成モデルは、アルベドと幾何学の相関を学習し、生成した資産の解剖学的正確性を保証する。
- 参考スコア(独自算出の注目度): 16.55993873730069
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Based on a combined data set of 4000 high resolution facial scans, we
introduce a non-linear morphable face model, capable of producing multifarious
face geometry of pore-level resolution, coupled with material attributes for
use in physically-based rendering. We aim to maximize the variety of face
identities, while increasing the robustness of correspondence between unique
components, including middle-frequency geometry, albedo maps, specular
intensity maps and high-frequency displacement details. Our deep learning based
generative model learns to correlate albedo and geometry, which ensures the
anatomical correctness of the generated assets. We demonstrate potential use of
our generative model for novel identity generation, model fitting,
interpolation, animation, high fidelity data visualization, and low-to-high
resolution data domain transferring. We hope the release of this generative
model will encourage further cooperation between all graphics, vision, and data
focused professionals while demonstrating the cumulative value of every
individual's complete biometric profile.
- Abstract(参考訳): 4000の高解像度顔スキャンを併用したデータに基づいて,多孔質解像度の多孔質顔形状を生成できる非線形形態素顔モデルと,物理ベースレンダリングに使用する材料特性を組み合わせて導入する。
我々は,中周波形状,アルベドマップ,鏡面強度マップ,高周波変位詳細など,固有成分間の対応の頑健性を高めつつ,顔識別の多様性を最大化することを目指している。
深層学習に基づく生成モデルはアルベドと幾何学を関連付けることを学び、生成された資産の解剖学的正確性を保証する。
我々は,新しいアイデンティティ生成,モデルフィッティング,補間,アニメーション,忠実度データ可視化,低解像度データ領域転送のための生成モデルの可能性を示す。
この生成モデルのリリースは、すべてのグラフィック、ビジョン、データにフォーカスしたプロフェッショナル間の協力をさらに促進し、各個人の完全なバイオメトリックプロファイルの累積価値を示すことを期待しています。
関連論文リスト
- Geometry Distributions [51.4061133324376]
本稿では,分布として幾何学をモデル化する新しい幾何学的データ表現を提案する。
提案手法では,新しいネットワークアーキテクチャを用いた拡散モデルを用いて表面点分布の学習を行う。
本研究では,多種多様な対象に対して質的かつ定量的に表現を評価し,その有効性を実証した。
論文 参考訳(メタデータ) (2024-11-25T04:06:48Z) - HyperFace: Generating Synthetic Face Recognition Datasets by Exploring Face Embedding Hypersphere [22.8742248559748]
顔認識データセットは、インターネットをクロールし、個人の同意なしに収集されることが多く、倫理的およびプライバシー上の懸念を提起する。
顔認識モデルをトレーニングするための合成データセットの生成は、有望な代替手段として浮上している。
我々はHyperFaceと呼ばれる新しい合成データセット生成手法を提案する。
論文 参考訳(メタデータ) (2024-11-13T09:42:12Z) - ID-to-3D: Expressive ID-guided 3D Heads via Score Distillation Sampling [96.87575334960258]
ID-to-3D(ID-to-3D)は、不整合表現を用いたIDとテキスト誘導型3次元頭部を生成する方法である。
前例のないアイデンティティ一貫性と高品質なテクスチャと幾何生成を実現する。
論文 参考訳(メタデータ) (2024-05-26T13:36:45Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - ImFace++: A Sophisticated Nonlinear 3D Morphable Face Model with Implicit Neural Representations [25.016000421755162]
本稿では,暗黙のニューラル表現を持つ高度で連続的な空間を学習するために,ImFace++という新しい3次元顔モデルを提案する。
ImFace++は、まず2つの明示的に歪んだ変形フィールドを構築し、アイデンティティと式に関連する複雑な形状をモデル化する。
さらにテンプレート空間内の精細化変位場が組み込まれ、個々の顔の詳細をきめ細かな学習が可能となる。
論文 参考訳(メタデータ) (2023-12-07T03:53:53Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - Generalizable Neural Performer: Learning Robust Radiance Fields for
Human Novel View Synthesis [52.720314035084215]
この研究は、一般のディープラーニングフレームワークを使用して、任意の人間の演奏者の自由視点画像を合成することを目的としている。
我々は、汎用的で堅牢な神経体表現を学習するシンプルな、かつ強力なフレームワーク、Generalizable Neural Performer(GNR)を提案する。
GeneBody-1.0とZJU-Mocapの実験は、最近の最先端の一般化可能な手法よりも、我々の手法の堅牢性を示している。
論文 参考訳(メタデータ) (2022-04-25T17:14:22Z) - Facial Geometric Detail Recovery via Implicit Representation [147.07961322377685]
そこで本研究では,一眼の顔画像のみを用いて,テクスチャガイドを用いた幾何的細部復元手法を提案する。
提案手法は,高品質なテクスチャ補完と暗黙の面の強力な表現性を組み合わせたものである。
本手法は, 顔の正確な細部を復元するだけでなく, 正常部, アルベド部, シェーディング部を自己監督的に分解する。
論文 参考訳(メタデータ) (2022-03-18T01:42:59Z) - Methodology for Building Synthetic Datasets with Virtual Humans [1.5556923898855324]
大規模なデータセットは、ディープニューラルネットワークの改善、ターゲットトレーニングに使用することができる。
特に,100の合成IDからなるデータセットにまたがる複数の2次元画像のレンダリングに3次元形態素顔モデルを用いる。
論文 参考訳(メタデータ) (2020-06-21T10:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。