論文の概要: LI-Net: Large-Pose Identity-Preserving Face Reenactment Network
- arxiv url: http://arxiv.org/abs/2104.02850v1
- Date: Wed, 7 Apr 2021 01:41:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 13:00:16.701340
- Title: LI-Net: Large-Pose Identity-Preserving Face Reenactment Network
- Title(参考訳): li-net:大規模アイデンティティ保存顔再現ネットワーク
- Authors: Jin Liu, Peng Chen, Tao Liang, Zhaoxing Li, Cai Yu, Shuqiao Zou, Jiao
Dai, Jizhong Han
- Abstract要約: 大規模ID保存顔再生ネットワークLI-Netを提案します。
特にランドマーク変換器は、走行するランドマーク画像を調整するために採用されている。
Face Rotation ModuleとExpression Enhancing Generatorは、変換されたランドマーク画像をポーズと式の特徴に分離し、それらの属性を別々に再現してアイデンティティ保護顔を生成する。
- 参考スコア(独自算出の注目度): 14.472453602392182
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face reenactment is a challenging task, as it is difficult to maintain
accurate expression, pose and identity simultaneously. Most existing methods
directly apply driving facial landmarks to reenact source faces and ignore the
intrinsic gap between two identities, resulting in the identity mismatch issue.
Besides, they neglect the entanglement of expression and pose features when
encoding driving faces, leading to inaccurate expressions and visual artifacts
on large-pose reenacted faces. To address these problems, we propose a
Large-pose Identity-preserving face reenactment network, LI-Net. Specifically,
the Landmark Transformer is adopted to adjust driving landmark images, which
aims to narrow the identity gap between driving and source landmark images.
Then the Face Rotation Module and the Expression Enhancing Generator decouple
the transformed landmark image into pose and expression features, and reenact
those attributes separately to generate identity-preserving faces with accurate
expressions and poses. Both qualitative and quantitative experimental results
demonstrate the superiority of our method.
- Abstract(参考訳): 顔の再現は、正確な表情、ポーズ、アイデンティティを同時に維持することが難しいため、難しい作業である。
既存の方法の多くは、顔のランドマークを駆動して、元の顔を再現し、2つのアイデンティティ間の内在的なギャップを無視する。
さらに、彼らは表情の絡み合いを無視し、運転顔の符号化時の特徴を装い、大規模な再現顔に不正確な表現や視覚的アーティファクトをもたらす。
これらの問題に対処するため,大規模顔認証システムLI-Netを提案する。
具体的には、ランドマーク変換器は、ドライブランドマーク画像とソースランドマーク画像との同一性ギャップを狭めることを目的とした、駆動ランドマーク画像の調整に採用されている。
次に、Face Rotation ModuleとExpression Enhancing Generatorは、変換されたランドマーク画像をポーズと式特徴に分離し、それらの属性を分離して、正確な表現とポーズでIDを保存する顔を生成する。
定性的および定量的実験により,本手法の優位性を示した。
関連論文リスト
- AniFaceDiff: High-Fidelity Face Reenactment via Facial Parametric Conditioned Diffusion Models [33.39336530229545]
顔再現とは、ポーズと表情を、参照(運転)ビデオから静的な顔(ソース)画像に転送する過程を指す。
この領域における以前の研究は、顔を生成するために制御可能な深層生成モデルを訓練することで大きな進歩を遂げた。
本稿では,AniFaceDiffと呼ばれる安定拡散に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-19T07:08:48Z) - Face Transformer: Towards High Fidelity and Accurate Face Swapping [54.737909435708936]
Face swappingは、ソース顔の同一性とターゲット顔の属性を融合させるスワップ画像を生成することを目的としている。
本稿では,顔の同一性と対象属性を同時に正確に保存できる新しい顔交換ネットワークであるFace Transformerを提案する。
論文 参考訳(メタデータ) (2023-04-05T15:51:44Z) - Semantic-aware One-shot Face Re-enactment with Dense Correspondence
Estimation [100.60938767993088]
ワンショットの顔の再現は、ソースと駆動する顔の同一性ミスマッチのため、難しい作業である。
本稿では,3次元形態素モデル(3DMM)を明示的な顔のセマンティックな分解とアイデンティティの絡み合いに利用することを提案する。
論文 参考訳(メタデータ) (2022-11-23T03:02:34Z) - StyleMask: Disentangling the Style Space of StyleGAN2 for Neural Face
Reenactment [47.27033282706179]
本研究では,顔の特徴をそのポーズから切り離すフレームワークを提案する。
提案手法は, 極端なポーズ変動であっても, 高品質な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-09-27T13:22:35Z) - Disentangling Identity and Pose for Facial Expression Recognition [54.50747989860957]
より識別的な特徴表現を学習するために,識別モデルを提案し,不整形表情認識(IPD-FER)モデルを提案する。
アイデンティティエンコーダでは、訓練中に訓練済みの顔認識モデルを利用して固定し、特定の表情訓練データに対する制限を軽減する。
合成された中性画像と同一個体の表情画像との差を比較することにより、表現成分はアイデンティティやポーズからさらに切り離される。
論文 参考訳(メタデータ) (2022-08-17T06:48:13Z) - Emotion Separation and Recognition from a Facial Expression by Generating the Poker Face with Vision Transformers [57.1091606948826]
我々はこれらの課題に対処するため,ポーカー・フェイス・ビジョン・トランスフォーマー (PF-ViT) と呼ばれる新しいFERモデルを提案する。
PF-ViTは、対応するポーカーフェースを生成して、乱れを認識できない感情を静的な顔画像から分離し、認識することを目的としている。
PF-ViTはバニラビジョントランスフォーマーを使用し、そのコンポーネントは大規模な表情データセット上でMasked Autoencodeerとして事前トレーニングされている。
論文 参考訳(メタデータ) (2022-07-22T13:39:06Z) - Graph-based Generative Face Anonymisation with Pose Preservation [49.18049578591058]
AnonyGANは、顔の匿名化のためのGANベースのソリューションである。
ソースアイデンティティに対応する視覚情報を、任意の単一のイメージとして提供される条件IDに置き換える。
論文 参考訳(メタデータ) (2021-12-10T12:58:17Z) - FACEGAN: Facial Attribute Controllable rEenactment GAN [24.547319786399743]
顔の再現は、運転画像から人物の身元と顔の動きを抽出する一般的なアニメーション手法である。
近年の研究では、顔のランドマークに基づく動き表現と、生成的対向ネットワークを組み合わせることで、高品質な結果が示されている。
本稿では,行動単位(AU)表現を介して運転顔から顔の動きを伝達するFACEGAN(Facial Attribute Controllable rEenactment GAN)を提案する。
論文 参考訳(メタデータ) (2020-11-09T14:04:15Z) - FaR-GAN for One-Shot Face Reenactment [20.894596219099164]
本稿では,任意の音源の顔画像とターゲット表現のみを入力として用いた一発顔再現モデルFaR-GANを提案する。
提案手法は,音源の同一性,表情,頭部ポーズ,さらには画像背景についても仮定しない。
論文 参考訳(メタデータ) (2020-05-13T16:15:37Z) - One-Shot Identity-Preserving Portrait Reenactment [16.889479797252783]
本研究では,対象物(ワンショット)の1枚の画像と運転対象物の映像から,人物像を再現するための深層学習型フレームワークを提案する。
本研究の目的は,一枚の画像から人物の身元を復元するクロスオブジェクト・ポートレート・リダクティフィケーションにおけるアイデンティティの保存に対処することである。
論文 参考訳(メタデータ) (2020-04-26T18:30:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。