論文の概要: Learning Formation of Physically-Based Face Attributes
- arxiv url: http://arxiv.org/abs/2004.03458v2
- Date: Fri, 24 Apr 2020 03:29:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 13:05:11.075880
- Title: Learning Formation of Physically-Based Face Attributes
- Title(参考訳): 身体的顔特性の学習形成
- Authors: Ruilong Li, Karl Bladin, Yajie Zhao, Chinmay Chinara, Owen Ingraham,
Pengda Xiang, Xinglei Ren, Pratusha Prasad, Bipin Kishore, Jun Xing, Hao Li
- Abstract要約: 4000個の高分解能顔スキャンを組み合わせたデータセットに基づいて,非線形形態素顔モデルを提案する。
我々のディープラーニングに基づく生成モデルは、アルベドと幾何学の相関を学習し、生成した資産の解剖学的正確性を保証する。
- 参考スコア(独自算出の注目度): 16.55993873730069
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Based on a combined data set of 4000 high resolution facial scans, we
introduce a non-linear morphable face model, capable of producing multifarious
face geometry of pore-level resolution, coupled with material attributes for
use in physically-based rendering. We aim to maximize the variety of face
identities, while increasing the robustness of correspondence between unique
components, including middle-frequency geometry, albedo maps, specular
intensity maps and high-frequency displacement details. Our deep learning based
generative model learns to correlate albedo and geometry, which ensures the
anatomical correctness of the generated assets. We demonstrate potential use of
our generative model for novel identity generation, model fitting,
interpolation, animation, high fidelity data visualization, and low-to-high
resolution data domain transferring. We hope the release of this generative
model will encourage further cooperation between all graphics, vision, and data
focused professionals while demonstrating the cumulative value of every
individual's complete biometric profile.
- Abstract(参考訳): 4000の高解像度顔スキャンを併用したデータに基づいて,多孔質解像度の多孔質顔形状を生成できる非線形形態素顔モデルと,物理ベースレンダリングに使用する材料特性を組み合わせて導入する。
我々は,中周波形状,アルベドマップ,鏡面強度マップ,高周波変位詳細など,固有成分間の対応の頑健性を高めつつ,顔識別の多様性を最大化することを目指している。
深層学習に基づく生成モデルはアルベドと幾何学を関連付けることを学び、生成された資産の解剖学的正確性を保証する。
我々は,新しいアイデンティティ生成,モデルフィッティング,補間,アニメーション,忠実度データ可視化,低解像度データ領域転送のための生成モデルの可能性を示す。
この生成モデルのリリースは、すべてのグラフィック、ビジョン、データにフォーカスしたプロフェッショナル間の協力をさらに促進し、各個人の完全なバイオメトリックプロファイルの累積価値を示すことを期待しています。
関連論文リスト
- An End-to-End Deep Learning Generative Framework for Refinable Shape
Matching and Generation [45.820901263103806]
In-Silico Clinical Trials (ISCTs) の必要条件としての形状生成モデルの構築
本研究では,非教師なしの幾何学的深層学習モデルを構築し,潜在空間における補修可能な形状対応を確立する。
提案するベースモデルを,より可変性を高めるために,結合形状生成クラスタリングマルチアトラスフレームワークに拡張する。
論文 参考訳(メタデータ) (2024-03-10T21:33:53Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and
Scalability [121.44324465222498]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - ImFace++: A Sophisticated Nonlinear 3D Morphable Face Model with
Implicit Neural Representations [26.838314840582004]
本稿では,暗黙のニューラル表現を持つ高度で連続的な空間を学習するために,ImFace++という新しい3次元顔モデルを提案する。
包括的質的,定量的評価により,ImFace++は顔再構成の精度と対応精度の両方の観点から,最先端性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-12-07T03:53:53Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - Multiface: A Dataset for Neural Face Rendering [108.44505415073579]
本研究では,新しいマルチビュー,高解像度のヒューマン・フェイス・データセットであるMultifaceを提案する。
顔のパフォーマンスの高解像度同期映像をキャプチャする大規模なマルチカメラ装置であるMugsyを紹介する。
Multifaceの目的は、学術コミュニティにおける高品質データへのアクセシビリティのギャップを埋め、VRテレプレゼンスの研究を可能にすることである。
論文 参考訳(メタデータ) (2022-07-22T17:55:39Z) - Generalizable Neural Performer: Learning Robust Radiance Fields for
Human Novel View Synthesis [52.720314035084215]
この研究は、一般のディープラーニングフレームワークを使用して、任意の人間の演奏者の自由視点画像を合成することを目的としている。
我々は、汎用的で堅牢な神経体表現を学習するシンプルな、かつ強力なフレームワーク、Generalizable Neural Performer(GNR)を提案する。
GeneBody-1.0とZJU-Mocapの実験は、最近の最先端の一般化可能な手法よりも、我々の手法の堅牢性を示している。
論文 参考訳(メタデータ) (2022-04-25T17:14:22Z) - Facial Geometric Detail Recovery via Implicit Representation [147.07961322377685]
そこで本研究では,一眼の顔画像のみを用いて,テクスチャガイドを用いた幾何的細部復元手法を提案する。
提案手法は,高品質なテクスチャ補完と暗黙の面の強力な表現性を組み合わせたものである。
本手法は, 顔の正確な細部を復元するだけでなく, 正常部, アルベド部, シェーディング部を自己監督的に分解する。
論文 参考訳(メタデータ) (2022-03-18T01:42:59Z) - Monocular Real-time Full Body Capture with Inter-part Correlations [66.22835689189237]
本稿では,体と手の形状と運動を1色画像から動的3次元顔モデルと共に推定する,実時間フルボディキャプチャの最初の手法を提案する。
提案手法では,体と手の相関を高い計算効率で活用する新しいニューラルネットワークアーキテクチャを用いる。
論文 参考訳(メタデータ) (2020-12-11T02:37:56Z) - Generating Annotated High-Fidelity Images Containing Multiple Coherent
Objects [10.783993190686132]
コンテキスト情報を明示的に必要とせずに、複数のオブジェクトで画像を合成できるマルチオブジェクト生成フレームワークを提案する。
我々は,Multi-MNISTおよびCLEVRデータセットを用いた実験により,コヒーレンシーと忠実さの保存方法を示す。
論文 参考訳(メタデータ) (2020-06-22T11:33:55Z) - Methodology for Building Synthetic Datasets with Virtual Humans [1.5556923898855324]
大規模なデータセットは、ディープニューラルネットワークの改善、ターゲットトレーニングに使用することができる。
特に,100の合成IDからなるデータセットにまたがる複数の2次元画像のレンダリングに3次元形態素顔モデルを用いる。
論文 参考訳(メタデータ) (2020-06-21T10:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。