論文の概要: Exploring 3D-aware Lifespan Face Aging via Disentangled Shape-Texture
Representations
- arxiv url: http://arxiv.org/abs/2312.16881v1
- Date: Thu, 28 Dec 2023 08:11:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 17:20:31.784817
- Title: Exploring 3D-aware Lifespan Face Aging via Disentangled Shape-Texture
Representations
- Title(参考訳): アンタングル型形状テクスチャ表現による3次元ライフスパン顔の老化
- Authors: Qianrui Teng, Rui Wang, Xing Cui, Peipei Li, Zhaofeng He
- Abstract要約: 形状とテクスチャは、人間の顔の老化過程に相互に影響を及ぼす2つの異なる要因である。
本稿では3D-STDを提案する。
提案手法は, 現状の方法ではめったに達成されない, 可塑性3次元顔老化結果の生成を支援する。
- 参考スコア(独自算出の注目度): 7.486383826921454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing face aging methods often focus on modeling either texture aging or
using an entangled shape-texture representation to achieve face aging. However,
shape and texture are two distinct factors that mutually affect the human face
aging process. In this paper, we propose 3D-STD, a novel 3D-aware Shape-Texture
Disentangled face aging network that explicitly disentangles the facial image
into shape and texture representations using 3D face reconstruction.
Additionally, to facilitate high-fidelity texture synthesis, we propose a novel
texture generation method based on Empirical Mode Decomposition (EMD).
Extensive qualitative and quantitative experiments show that our method
achieves state-of-the-art performance in terms of shape and texture
transformation. Moreover, our method supports producing plausible 3D face aging
results, which is rarely accomplished by current methods.
- Abstract(参考訳): 既存の顔の老化法は、しばしばテクスチャの老化をモデル化するか、顔の老化を達成するために絡み合った形状テクスチャ表現を使うことに焦点を合わせている。
しかしながら、形状とテクスチャは、人間の顔の老化過程に相互に影響を及ぼす2つの異なる要因である。
本稿では,顔画像の形状とテクスチャを3次元再構成により明確に区別する,新しい3次元形状認識型不連続顔老化ネットワークである3d-stdを提案する。
さらに,高忠実度テクスチャ合成を容易にするため,経験的モード分解(emd)に基づく新しいテクスチャ生成法を提案する。
大規模定性的および定量的実験により, 形状とテクスチャ変換の両面で最先端の性能が得られた。
さらに,本手法は,従来の方法ではめったに達成されない,可塑性3次元顔老化結果の生成を支援する。
関連論文リスト
- AvatarMe++: Facial Shape and BRDF Inference with Photorealistic
Rendering-Aware GANs [119.23922747230193]
そこで本研究では,レンダリング可能な3次元顔形状とBRDFの再構成を,単一の"in-the-wild"画像から実現した最初の手法を提案する。
本手法は,1枚の低解像度画像から,高解像度の3次元顔の再構成を行う。
論文 参考訳(メタデータ) (2021-12-11T11:36:30Z) - Unsupervised High-Fidelity Facial Texture Generation and Reconstruction [20.447635896077454]
本稿では,タスクとテクスチャの生成,高忠実度テクスチャの回復という新たな統合パイプラインを提案する。
テクスチャモデルでは,テクスチャマップのスキャンとは対照的に,自然画像から教師なしでテクスチャモデルを学習する。
正確な3DMMフィッティングを適用することで、モデル化したテクスチャを合成生成した背景画像にシームレスに統合することができる。
論文 参考訳(メタデータ) (2021-10-10T10:59:04Z) - HifiFace: 3D Shape and Semantic Prior Guided High Fidelity Face Swapping [116.1022638063613]
本研究では,光源面の顔形状を保存し,写真リアルな結果を生成できるHifiFaceを提案する。
本稿では,エンコーダとデコーダの組み合わせを最適化するSemantic Facial Fusionモジュールを提案する。
論文 参考訳(メタデータ) (2021-06-18T07:39:09Z) - Fast-GANFIT: Generative Adversarial Network for High Fidelity 3D Face
Reconstruction [76.1612334630256]
我々は、GAN(Generative Adversarial Networks)とDCNN(Deep Convolutional Neural Networks)の力を利用して、単一画像から顔のテクスチャと形状を再構築する。
3次元顔再構成を保存したフォトリアリスティックでアイデンティティに優れた結果を示し, 初めて, 高精度な顔テクスチャ再構成を実現する。
論文 参考訳(メタデータ) (2021-05-16T16:35:44Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z) - Face Super-Resolution Guided by 3D Facial Priors [92.23902886737832]
シャープな顔構造を把握した3次元顔先行情報を明示的に組み込んだ新しい顔超解像法を提案する。
我々の研究は、顔属性のパラメトリック記述の融合に基づく3次元形態的知識を初めて探求したものである。
提案した3D先行画像は、最先端技術よりも優れた顔超解像結果が得られる。
論文 参考訳(メタデータ) (2020-07-18T15:26:07Z) - AvatarMe: Realistically Renderable 3D Facial Reconstruction
"in-the-wild" [105.28776215113352]
AvatarMe は、1つの "in-the-wild" 画像から高精細度で光リアルな3D顔を再構成できる最初の方法である。
6K解像度の3D画像を1枚の低解像度画像から再現する。
論文 参考訳(メタデータ) (2020-03-30T22:17:54Z) - Towards High-Fidelity 3D Face Reconstruction from In-the-Wild Images
Using Graph Convolutional Networks [32.859340851346786]
本研究では,一眼レフ画像から高忠実度テクスチャで3次元顔形状を再構成する手法を提案する。
提案手法は, 質的, 定量的な比較において, 高品質な結果を生成し, 最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-03-12T08:06:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。