論文の概要: Fine-grained Identity Preserving Landmark Synthesis for Face Reenactment
- arxiv url: http://arxiv.org/abs/2110.04708v2
- Date: Tue, 12 Oct 2021 08:57:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-16 17:42:14.754085
- Title: Fine-grained Identity Preserving Landmark Synthesis for Face Reenactment
- Title(参考訳): 顔再現のための細粒度アイデンティティ保存ランドマーク合成
- Authors: Haichao Zhang, Youcheng Ben, Weixi Zhang, Tao Chen, Gang Yu, Bin Fu
- Abstract要約: ランドマーク合成ネットワークは、より詳細できめ細かいランドマーク顔を生成するように設計されている。
ネットワークは、操作されたランドマークを洗練し、良好なID保存能力を備えたスムーズで徐々に変化する顔ランドマークシーケンスを生成する。
自作の BeautySelfie と公開の VoxCeleb1 データセットで実験を行った。
- 参考スコア(独自算出の注目度): 30.062379710262068
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent face reenactment works are limited by the coarse reference landmarks,
leading to unsatisfactory identity preserving performance due to the
distribution gap between the manipulated landmarks and those sampled from a
real person. To address this issue, we propose a fine-grained
identity-preserving landmark-guided face reenactment approach. The proposed
method has two novelties. First, a landmark synthesis network which is designed
to generate fine-grained landmark faces with more details. The network refines
the manipulated landmarks and generates a smooth and gradually changing face
landmark sequence with good identity preserving ability. Second, several novel
loss functions including synthesized face identity preserving loss,
foreground/background mask loss as well as boundary loss are designed, which
aims at synthesizing clear and sharp high-quality faces. Experiments are
conducted on our self-collected BeautySelfie and the public VoxCeleb1 datasets.
The presented qualitative and quantitative results show that our method can
reenact fine-grained higher quality faces with good ID-preserved appearance
details, fewer artifacts and clearer boundaries than state-of-the-art works.
Code will be released for reproduction.
- Abstract(参考訳): 最近の顔再現作業は粗い参照ランドマークによって制限されており、操作されたランドマークと実人から採取されたランドマークとの分配ギャップのため、アイデンティティ保存性能が不十分である。
この問題に対処するため, 粒度保存型ランドマーク誘導顔再現法を提案する。
提案手法には2つの新しい特徴がある。
まず、より詳細な細かなランドマークを生成できるように設計されたランドマーク合成ネットワーク。
ネットワークは操作されたランドマークを洗練し、良好なアイデンティティ保存能力を持つ滑らかで徐々に変化する顔ランドマークシーケンスを生成する。
第二に、鮮明でシャープな高品質な顔の合成を目的とした、合成顔識別保護損失、前景/裏面マスク損失、境界損失などの新規な損失関数を設計する。
自作の BeautySelfie と公開の VoxCeleb1 データセットで実験を行った。
得られた定性的および定量的な結果から,本手法は高精細な高精細な顔の再現が可能であることを示す。
コードは再生のためにリリースされます。
関連論文リスト
- G2Face: High-Fidelity Reversible Face Anonymization via Generative and Geometric Priors [71.69161292330504]
可逆顔匿名化(Reversible face anonymization)は、顔画像の繊細なアイデンティティ情報を、合成された代替品に置き換えようとしている。
本稿では,Gtextsuperscript2Faceを提案する。
提案手法は,高データの有効性を保ちながら,顔の匿名化と回復において既存の最先端技術よりも優れる。
論文 参考訳(メタデータ) (2024-08-18T12:36:47Z) - HyperReenact: One-Shot Reenactment via Jointly Learning to Refine and
Retarget Faces [47.27033282706179]
提案手法は,音源識別のリアルな音声頭部画像を生成することを目的とした,HyperReenactと呼ばれるニューラルフェイス再現法を提案する。
提案手法は, 単発設定(すなわち, 単一音源フレーム)の下で動作し, 被検体固有の微調整を必要とせず, クロスオブジェクトの再現を可能にする。
我々は,VoxCeleb1とVoxCeleb2の標準ベンチマークにおけるいくつかの最先端技術と比較した。
論文 参考訳(メタデータ) (2023-07-20T11:59:42Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - Semantic-aware One-shot Face Re-enactment with Dense Correspondence
Estimation [100.60938767993088]
ワンショットの顔の再現は、ソースと駆動する顔の同一性ミスマッチのため、難しい作業である。
本稿では,3次元形態素モデル(3DMM)を明示的な顔のセマンティックな分解とアイデンティティの絡み合いに利用することを提案する。
論文 参考訳(メタデータ) (2022-11-23T03:02:34Z) - Everything's Talkin': Pareidolia Face Reenactment [119.49707201178633]
pareidolia face reenactmentは、ビデオ中の人間の顔とタンデムで動く静的なイラストリーフェイスのアニメーションと定義されている。
顔再現法と従来の顔再現法との差異が大きいため, 形状のばらつきとテクスチャのばらつきが導入された。
この2つの課題に取り組むために,新しいパラメトリック非教師なし再現アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-07T11:19:13Z) - LI-Net: Large-Pose Identity-Preserving Face Reenactment Network [14.472453602392182]
大規模ID保存顔再生ネットワークLI-Netを提案します。
特にランドマーク変換器は、走行するランドマーク画像を調整するために採用されている。
Face Rotation ModuleとExpression Enhancing Generatorは、変換されたランドマーク画像をポーズと式の特徴に分離し、それらの属性を別々に再現してアイデンティティ保護顔を生成する。
論文 参考訳(メタデータ) (2021-04-07T01:41:21Z) - A recurrent cycle consistency loss for progressive face-to-face
synthesis [5.71097144710995]
本稿では, 対面合成領域における入力の出現を保ちつつ, サイクル整合損失の重大な欠陥に対処する。
この損失を用いてトレーニングされたネットワークが生成した画像は、ノイズを隠蔽し、さらなるタスクに使用を妨げていることを示す。
出力画像間の距離を最小化する「繰り返しサイクル整合損失」を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:53:41Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z) - FaceShifter: Towards High Fidelity And Occlusion Aware Face Swapping [43.236261887752065]
本研究では,顔交換のための2段階フレームワークであるFaceShifterを提案する。
最初の段階では、ターゲット属性を徹底的かつ適応的に利用して、スワップされた顔を高忠実に生成する。
難解な顔合成に対処するために、HEAR-Net(Huristic Err Accnowledging Refinement Network)と呼ばれる新しいヒューリスティック・エラー認識ネットワーク(Heuristic Err Acknowledging Refinement Network)の第2ステージを付加する。
論文 参考訳(メタデータ) (2019-12-31T17:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。