論文の概要: SAFA: Structure Aware Face Animation
- arxiv url: http://arxiv.org/abs/2111.04928v1
- Date: Tue, 9 Nov 2021 03:22:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 15:05:55.336485
- Title: SAFA: Structure Aware Face Animation
- Title(参考訳): SAFA: 顔のアニメーションを意識する構造
- Authors: Qiulin Wang, Lu Zhang, Bo Li
- Abstract要約: 顔画像の異なる成分をモデル化するために,特定の幾何学的構造を構成する構造認識顔画像(SAFA)手法を提案する。
顔のモデリングには3Dフォーマブルモデル(3DMM)、髪やひげなどの他の前景のコンポーネントをモデル化するための複数のアフィン変換、背景をモデル化するためのアイデンティティ変換を使用します。
3DMMの幾何学的埋め込みは、運転シーンの現実的な構造を生成するだけでなく、生成した画像の隠蔽領域の知覚の向上にも寄与する。
- 参考スコア(独自算出の注目度): 9.58882272014749
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent success of generative adversarial networks (GAN) has made great
progress on the face animation task. However, the complex scene structure of a
face image still makes it a challenge to generate videos with face poses
significantly deviating from the source image. On one hand, without knowing the
facial geometric structure, generated face images might be improperly
distorted. On the other hand, some area of the generated image might be
occluded in the source image, which makes it difficult for GAN to generate
realistic appearance. To address these problems, we propose a structure aware
face animation (SAFA) method which constructs specific geometric structures to
model different components of a face image. Following the well recognized
motion based face animation technique, we use a 3D morphable model (3DMM) to
model the face, multiple affine transforms to model the other foreground
components like hair and beard, and an identity transform to model the
background. The 3DMM geometric embedding not only helps generate realistic
structure for the driving scene, but also contributes to better perception of
occluded area in the generated image. Besides, we further propose to exploit
the widely studied inpainting technique to faithfully recover the occluded
image area. Both quantitative and qualitative experiment results have shown the
superiority of our method. Code is available at
https://github.com/Qiulin-W/SAFA.
- Abstract(参考訳): 最近のGAN(Generative Adversarial Network)の成功は、顔アニメーションタスクに大きな進歩をもたらした。
しかし、顔画像の複雑なシーン構造は、元の画像から著しく逸脱した顔のポーズでビデオを生成するのが難しい。
一方、顔の幾何学的構造を知らずに、生成された顔画像は不適切に歪むことがある。
一方で、生成した画像の一部領域がソースイメージに隠されている可能性があるため、ganが現実的な外観を生成するのが困難である。
これらの問題に対処するため、顔画像の異なる成分をモデル化するための特定の幾何学的構造を構築するSAFA法を提案する。
身近な動きに基づく顔アニメーション技術に従い、顔のモデル化には3d morphable model(3dmm)、髪やあごひげなどの他の前景コンポーネントのモデリングには複数のアフィン変換、背景のモデリングにはid変換を用いる。
3DMMの幾何学的埋め込みは、運転シーンの現実的な構造を生成するだけでなく、生成した画像の隠蔽領域の知覚の向上にも寄与する。
さらに,広範に研究されている塗装技術を利用して,隠蔽画像領域を忠実に復元する手法も提案する。
定量的および定性的実験の結果は,本手法の優位性を示している。
コードはhttps://github.com/Qiulin-W/SAFAで公開されている。
関連論文リスト
- Single-Shot Implicit Morphable Faces with Consistent Texture
Parameterization [91.52882218901627]
本稿では,3次元形態素な顔モデルを構築するための新しい手法を提案する。
本手法は, 最先端手法と比較して, フォトリアリズム, 幾何, 表現精度を向上する。
論文 参考訳(メタデータ) (2023-05-04T17:58:40Z) - AvatarMe++: Facial Shape and BRDF Inference with Photorealistic
Rendering-Aware GANs [119.23922747230193]
そこで本研究では,レンダリング可能な3次元顔形状とBRDFの再構成を,単一の"in-the-wild"画像から実現した最初の手法を提案する。
本手法は,1枚の低解像度画像から,高解像度の3次元顔の再構成を行う。
論文 参考訳(メタデータ) (2021-12-11T11:36:30Z) - FaceTuneGAN: Face Autoencoder for Convolutional Expression Transfer
Using Neural Generative Adversarial Networks [0.7043489166804575]
顔の識別と表情を分離して符号化する新しい3次元顔モデル表現であるFaceTuneGANを提案する。
本稿では,2次元領域で使用されている画像と画像の変換ネットワークを3次元顔形状に適応させる手法を提案する。
論文 参考訳(メタデータ) (2021-12-01T14:42:03Z) - MOST-GAN: 3D Morphable StyleGAN for Disentangled Face Image Manipulation [69.35523133292389]
本稿では,顔の物理的属性を明示的にモデル化するフレームワークを提案する。
提案手法であるMOST-GANは,GANの表現力と光リアリズムを,非線形3次元形態素モデルの物理的ゆがみおよび柔軟性と統合する。
ポートレート画像の物理的特性を完全に3D制御する写真リアルな操作を実現し、照明の極端な操作、表情、およびフルプロファイルビューまでのポーズのバリエーションを可能にする。
論文 参考訳(メタデータ) (2021-11-01T15:53:36Z) - HifiFace: 3D Shape and Semantic Prior Guided High Fidelity Face Swapping [116.1022638063613]
本研究では,光源面の顔形状を保存し,写真リアルな結果を生成できるHifiFaceを提案する。
本稿では,エンコーダとデコーダの組み合わせを最適化するSemantic Facial Fusionモジュールを提案する。
論文 参考訳(メタデータ) (2021-06-18T07:39:09Z) - Image-to-Video Generation via 3D Facial Dynamics [78.01476554323179]
静止画像から様々な映像を生成するために多目的モデルであるFaceAnimeを提案する。
私たちのモデルは、顔ビデオや顔ビデオの予測など、さまざまなAR/VRやエンターテイメントアプリケーションに汎用的です。
論文 参考訳(メタデータ) (2021-05-31T02:30:11Z) - Learning an Animatable Detailed 3D Face Model from In-The-Wild Images [50.09971525995828]
本研究では, 実物的詳細と実物的画像から3次元顔レグレッサーを共同学習する第1の手法を提案する。
DECAモデルは、低次元の潜時表現からUV変位マップを堅牢に生成するように訓練されています。
本稿では,人固有の細部と表情依存のしわを区別する新しい細部一貫性損失を提案する。
論文 参考訳(メタデータ) (2020-12-07T19:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。