論文の概要: Facial Geometric Detail Recovery via Implicit Representation
- arxiv url: http://arxiv.org/abs/2203.09692v1
- Date: Fri, 18 Mar 2022 01:42:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-21 15:14:05.165702
- Title: Facial Geometric Detail Recovery via Implicit Representation
- Title(参考訳): 入射表現による顔の幾何学的詳細復元
- Authors: Xingyu Ren, Alexandros Lattas, Baris Gecer, Jiankang Deng, Chao Ma,
Xiaokang Yang, Stefanos Zafeiriou
- Abstract要約: そこで本研究では,一眼の顔画像のみを用いて,テクスチャガイドを用いた幾何的細部復元手法を提案する。
提案手法は,高品質なテクスチャ補完と暗黙の面の強力な表現性を組み合わせたものである。
本手法は, 顔の正確な細部を復元するだけでなく, 正常部, アルベド部, シェーディング部を自己監督的に分解する。
- 参考スコア(独自算出の注目度): 147.07961322377685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning a dense 3D model with fine-scale details from a single facial image
is highly challenging and ill-posed. To address this problem, many approaches
fit smooth geometries through facial prior while learning details as additional
displacement maps or personalized basis. However, these techniques typically
require vast datasets of paired multi-view data or 3D scans, whereas such
datasets are scarce and expensive. To alleviate heavy data dependency, we
present a robust texture-guided geometric detail recovery approach using only a
single in-the-wild facial image. More specifically, our method combines
high-quality texture completion with the powerful expressiveness of implicit
surfaces. Initially, we inpaint occluded facial parts, generate complete
textures, and build an accurate multi-view dataset of the same subject. In
order to estimate the detailed geometry, we define an implicit signed distance
function and employ a physically-based implicit renderer to reconstruct fine
geometric details from the generated multi-view images. Our method not only
recovers accurate facial details but also decomposes normals, albedos, and
shading parts in a self-supervised way. Finally, we register the implicit shape
details to a 3D Morphable Model template, which can be used in traditional
modeling and rendering pipelines. Extensive experiments demonstrate that the
proposed approach can reconstruct impressive facial details from a single
image, especially when compared with state-of-the-art methods trained on large
datasets.
- Abstract(参考訳): 単一の顔画像から細部まで細部まで詳細な3Dモデルを学ぶことは極めて困難で不適切である。
この問題に対処するために、多くのアプローチは、詳細を追加の変位マップやパーソナライズされたベースとして学習しながら、顔の前のスムーズなジオメトリーに適合する。
しかし、これらの手法は通常、ペアのマルチビューデータや3dスキャンの膨大なデータセットを必要とするが、そのようなデータセットは少なく高価である。
重データ依存を軽減するため,一眼の顔画像のみを用いたテクスチャ誘導幾何細部復元手法を提案する。
具体的には,高品質なテクスチャ補完と暗示表面の強力な表現性を組み合わせる。
最初は、顔の部品を塗りつぶし、完全なテクスチャを生成し、同じ主題の正確なマルチビューデータセットを構築しました。
詳細な形状を推定するために、暗黙の符号付き距離関数を定義し、物理ベースの暗黙のレンダラーを用いて、生成された多視点画像から細かな幾何学的詳細を再構成する。
本手法は, 顔の正確な細部を復元するだけでなく, 正常部, アルベド部, シェーディング部を自己監督的に分解する。
最後に、暗黙の形状の詳細を、3d morphable modelテンプレートに登録します。
広範な実験により、提案手法は、特に大規模データセットでトレーニングされた最先端の手法と比較して、1つの画像から印象的な顔詳細を再構築できることが示されている。
関連論文リスト
- Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - Single-Shot Implicit Morphable Faces with Consistent Texture
Parameterization [91.52882218901627]
本稿では,3次元形態素な顔モデルを構築するための新しい手法を提案する。
本手法は, 最先端手法と比較して, フォトリアリズム, 幾何, 表現精度を向上する。
論文 参考訳(メタデータ) (2023-05-04T17:58:40Z) - A Hierarchical Representation Network for Accurate and Detailed Face
Reconstruction from In-The-Wild Images [15.40230841242637]
本稿では,1つの画像から正確な顔再構成を実現するために,新しい階層型表現ネットワーク(HRN)を提案する。
我々のフレームワークは、異なるビューの詳細な一貫性を考慮し、マルチビューに拡張することができる。
本手法は,再現精度と視覚効果の両方において既存手法より優れる。
論文 参考訳(メタデータ) (2023-02-28T09:24:36Z) - AvatarMe++: Facial Shape and BRDF Inference with Photorealistic
Rendering-Aware GANs [119.23922747230193]
そこで本研究では,レンダリング可能な3次元顔形状とBRDFの再構成を,単一の"in-the-wild"画像から実現した最初の手法を提案する。
本手法は,1枚の低解像度画像から,高解像度の3次元顔の再構成を行う。
論文 参考訳(メタデータ) (2021-12-11T11:36:30Z) - Topologically Consistent Multi-View Face Inference Using Volumetric
Sampling [25.001398662643986]
ToFuは、幾何推論フレームワークで、アイデンティティと式をまたいだトポロジ的に一貫したメッシュを生成することができる。
新たなプログレッシブメッシュ生成ネットワークは、顔のトポロジ的構造を特徴量に埋め込む。
これらの高品質な資産は、アバターの作成、アニメーション、物理的にベースとしたスキンレンダリングのためのプロダクションスタジオで容易に利用することができる。
論文 参考訳(メタデータ) (2021-10-06T17:55:08Z) - SIDER: Single-Image Neural Optimization for Facial Geometric Detail
Recovery [54.64663713249079]
SIDERは、教師なしの方法で単一の画像から詳細な顔形状を復元する新しい光度最適化手法である。
以前の作業とは対照的に、SIDERはデータセットの事前に依存せず、複数のビュー、照明変更、地上の真実の3D形状から追加の監視を必要としない。
論文 参考訳(メタデータ) (2021-08-11T22:34:53Z) - Learning an Animatable Detailed 3D Face Model from In-The-Wild Images [50.09971525995828]
本研究では, 実物的詳細と実物的画像から3次元顔レグレッサーを共同学習する第1の手法を提案する。
DECAモデルは、低次元の潜時表現からUV変位マップを堅牢に生成するように訓練されています。
本稿では,人固有の細部と表情依存のしわを区別する新しい細部一貫性損失を提案する。
論文 参考訳(メタデータ) (2020-12-07T19:30:45Z) - Towards High-Fidelity 3D Face Reconstruction from In-the-Wild Images
Using Graph Convolutional Networks [32.859340851346786]
本研究では,一眼レフ画像から高忠実度テクスチャで3次元顔形状を再構成する手法を提案する。
提案手法は, 質的, 定量的な比較において, 高品質な結果を生成し, 最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-03-12T08:06:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。