論文の概要: Fast-GANFIT: Generative Adversarial Network for High Fidelity 3D Face
Reconstruction
- arxiv url: http://arxiv.org/abs/2105.07474v1
- Date: Sun, 16 May 2021 16:35:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 05:12:24.638211
- Title: Fast-GANFIT: Generative Adversarial Network for High Fidelity 3D Face
Reconstruction
- Title(参考訳): Fast-GANFIT:高忠実度3次元顔再構成のための生成的対向ネットワーク
- Authors: Baris Gecer, Stylianos Ploumpis, Irene Kotsia, Stefanos Zafeiriou
- Abstract要約: 我々は、GAN(Generative Adversarial Networks)とDCNN(Deep Convolutional Neural Networks)の力を利用して、単一画像から顔のテクスチャと形状を再構築する。
3次元顔再構成を保存したフォトリアリスティックでアイデンティティに優れた結果を示し, 初めて, 高精度な顔テクスチャ再構成を実現する。
- 参考スコア(独自算出の注目度): 76.1612334630256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A lot of work has been done towards reconstructing the 3D facial structure
from single images by capitalizing on the power of Deep Convolutional Neural
Networks (DCNNs). In the recent works, the texture features either correspond
to components of a linear texture space or are learned by auto-encoders
directly from in-the-wild images. In all cases, the quality of the facial
texture reconstruction is still not capable of modeling facial texture with
high-frequency details. In this paper, we take a radically different approach
and harness the power of Generative Adversarial Networks (GANs) and DCNNs in
order to reconstruct the facial texture and shape from single images. That is,
we utilize GANs to train a very powerful facial texture prior \edit{from a
large-scale 3D texture dataset}. Then, we revisit the original 3D Morphable
Models (3DMMs) fitting making use of non-linear optimization to find the
optimal latent parameters that best reconstruct the test image but under a new
perspective. In order to be robust towards initialisation and expedite the
fitting process, we propose a novel self-supervised regression based approach.
We demonstrate excellent results in photorealistic and identity preserving 3D
face reconstructions and achieve for the first time, to the best of our
knowledge, facial texture reconstruction with high-frequency details.
- Abstract(参考訳): ディープ畳み込みニューラルネットワーク(DCNN)の力を生かして,単一の画像から3次元顔構造を再構築する作業が数多く行われている。
最近の研究では、テクスチャの特徴は線形テクスチャ空間の構成要素に対応するか、あるいは、線内画像から直接オートエンコーダによって学習される。
いずれにしても、顔のテクスチャ再構築の品質は、高頻度で顔のテクスチャをモデル化することができない。
本稿では,画像から顔のテクスチャと形状を再構築するために,gans(generative adversarial network)とdcnns(generative adversarial network)のパワーを根本的に異なるアプローチで活用する。
すなわち,大規模な3次元テクスチャデータセットから,非常に強力な顔テクスチャをトレーニングするためにGANを使用する。
そこで,本研究では, 非線形最適化を応用したオリジナルの3次元モルファブルモデル(3DMM)を再検討し, テストイメージを最適に再構成する最適潜伏パラメータを, 新しい視点で探索する。
初期化に頑健であり, 適合プロセスの迅速化を図るために, 自己教師あり回帰に基づく新しいアプローチを提案する。
3次元顔再構成を保存したフォトリアリスティックでアイデンティティに優れた結果を示し,その知識を最大限に活用し,高精度な顔テクスチャ再構成を実現する。
関連論文リスト
- High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - AvatarMe++: Facial Shape and BRDF Inference with Photorealistic
Rendering-Aware GANs [119.23922747230193]
そこで本研究では,レンダリング可能な3次元顔形状とBRDFの再構成を,単一の"in-the-wild"画像から実現した最初の手法を提案する。
本手法は,1枚の低解像度画像から,高解像度の3次元顔の再構成を行う。
論文 参考訳(メタデータ) (2021-12-11T11:36:30Z) - Self-supervised High-fidelity and Re-renderable 3D Facial Reconstruction
from a Single Image [19.0074836183624]
そこで本研究では,高品質な3次元顔の再構築を目的とした,新たな自己教師型学習フレームワークを提案する。
我々のフレームワークは質的比較と量的比較の両方において最先端のアプローチを大幅に上回っている。
論文 参考訳(メタデータ) (2021-11-16T08:10:24Z) - Unsupervised High-Fidelity Facial Texture Generation and Reconstruction [20.447635896077454]
本稿では,タスクとテクスチャの生成,高忠実度テクスチャの回復という新たな統合パイプラインを提案する。
テクスチャモデルでは,テクスチャマップのスキャンとは対照的に,自然画像から教師なしでテクスチャモデルを学習する。
正確な3DMMフィッティングを適用することで、モデル化したテクスチャを合成生成した背景画像にシームレスに統合することができる。
論文 参考訳(メタデータ) (2021-10-10T10:59:04Z) - Inverting Generative Adversarial Renderer for Face Reconstruction [58.45125455811038]
本稿では,GAR(Generative Adversa Renderer)について紹介する。
GARは、グラフィックルールに頼るのではなく、複雑な現実世界のイメージをモデル化することを学ぶ。
本手法は,複数顔再構成における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-06T04:16:06Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z) - AvatarMe: Realistically Renderable 3D Facial Reconstruction
"in-the-wild" [105.28776215113352]
AvatarMe は、1つの "in-the-wild" 画像から高精細度で光リアルな3D顔を再構成できる最初の方法である。
6K解像度の3D画像を1枚の低解像度画像から再現する。
論文 参考訳(メタデータ) (2020-03-30T22:17:54Z) - Towards High-Fidelity 3D Face Reconstruction from In-the-Wild Images
Using Graph Convolutional Networks [32.859340851346786]
本研究では,一眼レフ画像から高忠実度テクスチャで3次元顔形状を再構成する手法を提案する。
提案手法は, 質的, 定量的な比較において, 高品質な結果を生成し, 最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-03-12T08:06:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。