論文の概要: A Hierarchical Representation Network for Accurate and Detailed Face
Reconstruction from In-The-Wild Images
- arxiv url: http://arxiv.org/abs/2302.14434v2
- Date: Tue, 28 Mar 2023 06:27:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 18:32:49.506849
- Title: A Hierarchical Representation Network for Accurate and Detailed Face
Reconstruction from In-The-Wild Images
- Title(参考訳): 奥行き画像からの高精度・詳細な顔再構成のための階層的表現ネットワーク
- Authors: Biwen Lei, Jianqiang Ren, Mengyang Feng, Miaomiao Cui, Xuansong Xie
- Abstract要約: 本稿では,1つの画像から正確な顔再構成を実現するために,新しい階層型表現ネットワーク(HRN)を提案する。
我々のフレームワークは、異なるビューの詳細な一貫性を考慮し、マルチビューに拡張することができる。
本手法は,再現精度と視覚効果の両方において既存手法より優れる。
- 参考スコア(独自算出の注目度): 15.40230841242637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Limited by the nature of the low-dimensional representational capacity of
3DMM, most of the 3DMM-based face reconstruction (FR) methods fail to recover
high-frequency facial details, such as wrinkles, dimples, etc. Some attempt to
solve the problem by introducing detail maps or non-linear operations, however,
the results are still not vivid. To this end, we in this paper present a novel
hierarchical representation network (HRN) to achieve accurate and detailed face
reconstruction from a single image. Specifically, we implement the geometry
disentanglement and introduce the hierarchical representation to fulfill
detailed face modeling. Meanwhile, 3D priors of facial details are incorporated
to enhance the accuracy and authenticity of the reconstruction results. We also
propose a de-retouching module to achieve better decoupling of the geometry and
appearance. It is noteworthy that our framework can be extended to a multi-view
fashion by considering detail consistency of different views. Extensive
experiments on two single-view and two multi-view FR benchmarks demonstrate
that our method outperforms the existing methods in both reconstruction
accuracy and visual effects. Finally, we introduce a high-quality 3D face
dataset FaceHD-100 to boost the research of high-fidelity face reconstruction.
The project homepage is at https://younglbw.github.io/HRN-homepage/.
- Abstract(参考訳): 3DMMの低次元表現能力の性質により、ほとんどの3DMMベースの顔再構成(FR)法は、シワ、ディアンプなどの高周波顔の細部を回復できない。
詳細マップや非線形操作を導入してこの問題を解決する試みもあるが、その結果はまだ鮮明ではない。
そこで本研究では,単一の画像から顔の正確な再現を実現するために,新しい階層型表現ネットワーク(HRN)を提案する。
具体的には,幾何学的絡み合いを実装し,詳細な顔モデルを実現するために階層表現を導入する。
一方,再建結果の正確性と信頼性を高めるため,顔詳細の3次元前処理が組み込まれている。
また,形状と外観の疎結合性を向上するデタッチモジュールを提案する。
異なるビューの詳細な一貫性を考慮して、フレームワークをマルチビューに拡張できることは注目に値する。
2つのシングルビューFRベンチマークと2つのマルチビューFRベンチマークの大規模な実験により、提案手法は再現精度と視覚効果の両方において既存の手法よりも優れていることが示された。
最後に,高品質な3d顔データセットfacehd-100を導入し,高忠実度顔再構成の研究を促進する。
プロジェクトのホームページはhttps://younglbw.github.io/HRN-homepage/にある。
関連論文リスト
- JIFF: Jointly-aligned Implicit Face Function for High Quality Single
View Clothed Human Reconstruction [24.11991929558466]
最近の暗黙的機能に基づく手法は印象的な結果を示したが、再建時に顔の細部を復元することはできなかった。
これにより、3Dテレプレゼンスのようなアプリケーションにおけるユーザエクスペリエンスは大きく低下する。
本稿では,暗黙的関数に基づくアプローチとモデルに基づくアプローチの利点を組み合わせた,統合整合型インプリシット・フェイス・ファンクション(JIFF)を提案する。
論文 参考訳(メタデータ) (2022-04-22T07:43:45Z) - Facial Geometric Detail Recovery via Implicit Representation [147.07961322377685]
そこで本研究では,一眼の顔画像のみを用いて,テクスチャガイドを用いた幾何的細部復元手法を提案する。
提案手法は,高品質なテクスチャ補完と暗黙の面の強力な表現性を組み合わせたものである。
本手法は, 顔の正確な細部を復元するだけでなく, 正常部, アルベド部, シェーディング部を自己監督的に分解する。
論文 参考訳(メタデータ) (2022-03-18T01:42:59Z) - AvatarMe++: Facial Shape and BRDF Inference with Photorealistic
Rendering-Aware GANs [119.23922747230193]
そこで本研究では,レンダリング可能な3次元顔形状とBRDFの再構成を,単一の"in-the-wild"画像から実現した最初の手法を提案する。
本手法は,1枚の低解像度画像から,高解像度の3次元顔の再構成を行う。
論文 参考訳(メタデータ) (2021-12-11T11:36:30Z) - Implicit Neural Deformation for Multi-View Face Reconstruction [43.88676778013593]
マルチビューRGB画像から新しい3次元顔再構成法を提案する。
従来の3次元形態素モデルに基づく手法とは異なり,本手法は暗黙の表現を利用してリッチな幾何学的特徴を符号化する。
いくつかのベンチマークデータセットに対する実験結果から,提案手法は代替ベースラインよりも優れ,最先端の手法に比べて優れた顔再構成結果が得られることが示された。
論文 参考訳(メタデータ) (2021-12-05T07:02:53Z) - Total Scale: Face-to-Body Detail Reconstruction from Sparse RGBD Sensors [52.38220261632204]
PIFuをベースとした再建術では, 顔面の平坦化が頻発する。
再建した顔のディテールの質を高めるために,2段階のPIFu表現を提案する。
顔の鮮明な細部と身体形状の変形におけるアプローチの有効性を実験的に検証した。
論文 参考訳(メタデータ) (2021-12-03T18:46:49Z) - Fast-GANFIT: Generative Adversarial Network for High Fidelity 3D Face
Reconstruction [76.1612334630256]
我々は、GAN(Generative Adversarial Networks)とDCNN(Deep Convolutional Neural Networks)の力を利用して、単一画像から顔のテクスチャと形状を再構築する。
3次元顔再構成を保存したフォトリアリスティックでアイデンティティに優れた結果を示し, 初めて, 高精度な顔テクスチャ再構成を実現する。
論文 参考訳(メタデータ) (2021-05-16T16:35:44Z) - Inverting Generative Adversarial Renderer for Face Reconstruction [58.45125455811038]
本稿では,GAR(Generative Adversa Renderer)について紹介する。
GARは、グラフィックルールに頼るのではなく、複雑な現実世界のイメージをモデル化することを学ぶ。
本手法は,複数顔再構成における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-06T04:16:06Z) - AvatarMe: Realistically Renderable 3D Facial Reconstruction
"in-the-wild" [105.28776215113352]
AvatarMe は、1つの "in-the-wild" 画像から高精細度で光リアルな3D顔を再構成できる最初の方法である。
6K解像度の3D画像を1枚の低解像度画像から再現する。
論文 参考訳(メタデータ) (2020-03-30T22:17:54Z) - Towards High-Fidelity 3D Face Reconstruction from In-the-Wild Images
Using Graph Convolutional Networks [32.859340851346786]
本研究では,一眼レフ画像から高忠実度テクスチャで3次元顔形状を再構成する手法を提案する。
提案手法は, 質的, 定量的な比較において, 高品質な結果を生成し, 最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-03-12T08:06:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。