論文の概要: BareSkinNet: De-makeup and De-lighting via 3D Face Reconstruction
- arxiv url: http://arxiv.org/abs/2209.09029v1
- Date: Mon, 19 Sep 2022 14:02:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 19:49:45.036003
- Title: BareSkinNet: De-makeup and De-lighting via 3D Face Reconstruction
- Title(参考訳): BareSkinNet:3D顔再構成によるデメイクとデライティング
- Authors: Xingchao Yang and Takafumi Taketomi
- Abstract要約: 顔画像から化粧や照明の影響を同時に除去する新しい手法であるBareSkinNetを提案する。
3次元顔再構成のプロセスを組み合わせることで,3次元形状と粗い3次元テクスチャを容易に得ることができる。
実験の結果,BareSkinNetは最先端メイク除去法より優れていたことがわかった。
- 参考スコア(独自算出の注目度): 2.741266294612776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose BareSkinNet, a novel method that simultaneously removes makeup and
lighting influences from the face image. Our method leverages a 3D morphable
model and does not require a reference clean face image or a specified light
condition. By combining the process of 3D face reconstruction, we can easily
obtain 3D geometry and coarse 3D textures. Using this information, we can infer
normalized 3D face texture maps (diffuse, normal, roughness, and specular) by
an image-translation network. Consequently, reconstructed 3D face textures
without undesirable information will significantly benefit subsequent
processes, such as re-lighting or re-makeup. In experiments, we show that
BareSkinNet outperforms state-of-the-art makeup removal methods. In addition,
our method is remarkably helpful in removing makeup to generate consistent
high-fidelity texture maps, which makes it extendable to many realistic face
generation applications. It can also automatically build graphic assets of face
makeup images before and after with corresponding 3D data. This will assist
artists in accelerating their work, such as 3D makeup avatar creation.
- Abstract(参考訳): 顔画像から化粧や照明の影響を同時に除去する新しい手法であるBareSkinNetを提案する。
提案手法は, 3次元形状モデルを利用して, 基準クリーンフェース画像や特定光条件を必要としない。
3次元顔の再構成過程を組み合わせることで,3次元形状と粗い3次元テクスチャを容易に得ることができる。
この情報を用いて、画像翻訳ネットワークにより正規化された3次元顔テクスチャマップ(拡散、正規、粗さ、明細)を推定できる。
したがって、望ましくない情報のない再構築された3D顔テクスチャは、リライトやリメイクアップといったその後のプロセスに大きく貢献する。
実験の結果,BareSkinNetは最先端メイク除去法よりも優れていた。
さらに, 化粧品を除去して一貫した高忠実度テクスチャマップを生成することで, 多くの現実的な顔生成アプリケーションに拡張可能である。
また、3Dデータの前後で顔のメイク画像のグラフィックアセットを自動的に作成することも可能だ。
これにより、アーティストは3Dメイクアバター作成など、作品の加速を支援することができる。
関連論文リスト
- Single-Shot Implicit Morphable Faces with Consistent Texture
Parameterization [91.52882218901627]
本稿では,3次元形態素な顔モデルを構築するための新しい手法を提案する。
本手法は, 最先端手法と比較して, フォトリアリズム, 幾何, 表現精度を向上する。
論文 参考訳(メタデータ) (2023-05-04T17:58:40Z) - Makeup Extraction of 3D Representation via Illumination-Aware Image
Decomposition [4.726777092009553]
本稿では,1枚の化粧像から3次元顔モデルのための化粧品を抽出する最初の方法を提案する。
粗い材料を抽出するために, 回帰ベースの逆レンダリングにより, 3次元形態素モデルの強みを生かした。
本手法は3次元顔モデルだけでなく2次元顔画像にも様々な用途を提供する。
論文 参考訳(メタデータ) (2023-02-26T09:48:57Z) - AvatarMe++: Facial Shape and BRDF Inference with Photorealistic
Rendering-Aware GANs [119.23922747230193]
そこで本研究では,レンダリング可能な3次元顔形状とBRDFの再構成を,単一の"in-the-wild"画像から実現した最初の手法を提案する。
本手法は,1枚の低解像度画像から,高解像度の3次元顔の再構成を行う。
論文 参考訳(メタデータ) (2021-12-11T11:36:30Z) - Fast-GANFIT: Generative Adversarial Network for High Fidelity 3D Face
Reconstruction [76.1612334630256]
我々は、GAN(Generative Adversarial Networks)とDCNN(Deep Convolutional Neural Networks)の力を利用して、単一画像から顔のテクスチャと形状を再構築する。
3次元顔再構成を保存したフォトリアリスティックでアイデンティティに優れた結果を示し, 初めて, 高精度な顔テクスチャ再構成を実現する。
論文 参考訳(メタデータ) (2021-05-16T16:35:44Z) - MeInGame: Create a Game Character Face from a Single Portrait [15.432712351907012]
顔の形状とテクスチャを1枚の肖像画から予測する文字顔の自動生成手法を提案する。
実験の結果,本手法はゲームにおける最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-02-04T02:12:19Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z) - FaceDet3D: Facial Expressions with 3D Geometric Detail Prediction [62.5557724039217]
表情は3d顔形状の様々な高レベルな詳細を誘導する。
人間の顔のモルフォラブルモデル(3DMM)は、PCAベースの表現でそのような細かい詳細をキャプチャできません。
faceet3dは,1つの画像から,任意の対象表現と一致する幾何学的顔詳細を生成する,初歩的な手法である。
論文 参考訳(メタデータ) (2020-12-14T23:07:38Z) - AvatarMe: Realistically Renderable 3D Facial Reconstruction
"in-the-wild" [105.28776215113352]
AvatarMe は、1つの "in-the-wild" 画像から高精細度で光リアルな3D顔を再構成できる最初の方法である。
6K解像度の3D画像を1枚の低解像度画像から再現する。
論文 参考訳(メタデータ) (2020-03-30T22:17:54Z) - Towards High-Fidelity 3D Face Reconstruction from In-the-Wild Images
Using Graph Convolutional Networks [32.859340851346786]
本研究では,一眼レフ画像から高忠実度テクスチャで3次元顔形状を再構成する手法を提案する。
提案手法は, 質的, 定量的な比較において, 高品質な結果を生成し, 最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-03-12T08:06:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。