論文の概要: FaceDancer: Pose- and Occlusion-Aware High Fidelity Face Swapping
- arxiv url: http://arxiv.org/abs/2210.10473v1
- Date: Wed, 19 Oct 2022 11:31:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 14:46:43.471762
- Title: FaceDancer: Pose- and Occlusion-Aware High Fidelity Face Swapping
- Title(参考訳): faceancer: ポーズと咬合を認識する高忠実度顔交換
- Authors: Felix Rosberg, Eren Erdal Aksoy, Fernando Alonso-Fernandez, Cristofer
Englund
- Abstract要約: そこで我々は,FaceDancerという顔のスワップとID転送のための新しい単一ステージ手法を提案する。
アダプティブ・フィーチャー・フュージョン・アテンション(AFFA)と解釈的特徴類似性規則化(IFSR)の2つの主要なコントリビューションがある。
- 参考スコア(独自算出の注目度): 62.38898610210771
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work, we present a new single-stage method for subject agnostic face
swapping and identity transfer, named FaceDancer. We have two major
contributions: Adaptive Feature Fusion Attention (AFFA) and Interpreted Feature
Similarity Regularization (IFSR). The AFFA module is embedded in the decoder
and adaptively learns to fuse attribute features and features conditioned on
identity information without requiring any additional facial segmentation
process. In IFSR, we leverage the intermediate features in an identity encoder
to preserve important attributes such as head pose, facial expression,
lighting, and occlusion in the target face, while still transferring the
identity of the source face with high fidelity. We conduct extensive
quantitative and qualitative experiments on various datasets and show that the
proposed FaceDancer outperforms other state-of-the-art networks in terms of
identityn transfer, while having significantly better pose preservation than
most of the previous methods.
- Abstract(参考訳): そこで本研究では,FaceDancerという顔交換とID転送のための単一ステージ方式を提案する。
適応的特徴融合注意(AFFA)と解釈的特徴類似性規則化(IFSR)の2つの主要な貢献がある。
AFFAモジュールはデコーダに埋め込まれており、追加の顔分割処理を必要とせず、アイデンティティ情報に条件付けられた属性特徴と特徴を融合させることを適応的に学習する。
IFSRでは,頭部ポーズ,表情,照明,隠蔽などの重要な属性を保持するために,識別エンコーダの中間的特徴を活用しながら,元の顔のアイデンティティを高い忠実度で転送する。
各種データセットの定量的および定性的な実験を行い,提案したFaceDancerが,従来の手法よりもはるかに優れたポーズ保存を実現しつつ,他の最先端ネットワークよりも優れていることを示す。
関連論文リスト
- DiffFAE: Advancing High-fidelity One-shot Facial Appearance Editing with Space-sensitive Customization and Semantic Preservation [84.0586749616249]
本稿では,高忠実度顔画像編集に適した1段階かつ高効率な拡散ベースフレームワークDiffFAEを提案する。
高忠実度クエリ属性転送には、空間感性物理カスタマイズ(SPC)を採用し、忠実度と一般化能力を保証している。
ソース属性を保存するために、Regional-responsive Semantic Composition (RSC)を導入する。
このモジュールは、切り離されたソースを無視する特徴を学習するためにガイドされ、髪、服、背景などの非顔的属性からアーティファクトを保存し緩和する。
論文 参考訳(メタデータ) (2024-03-26T12:53:10Z) - HFORD: High-Fidelity and Occlusion-Robust De-identification for Face
Privacy Protection [60.63915939982923]
顔の身元特定は、身元保護問題を解決するための実践的な方法である。
既存の顔の特定方法にはいくつかの問題がある。
これらの問題に対処するために,HFORD(High-Fidelity and Occlusion-Robust De-identification)法を提案する。
論文 参考訳(メタデータ) (2023-11-15T08:59:02Z) - Learning Disentangled Representation for One-shot Progressive Face
Swapping [65.98684203654908]
ジェネレーティブ・アドバーサリアル・ネットワークに基づくワンショット・フェイススワップのためのシンプルで効率的なFaceSwapperを提案する。
提案手法は,不整合表現モジュールと意味誘導融合モジュールから構成される。
その結果,本手法は,トレーニングサンプルの少ないベンチマークで最先端の結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-24T11:19:04Z) - FICGAN: Facial Identity Controllable GAN for De-identification [34.38379234653657]
本稿では,プライバシー保護を確実にした高品質な顔画像を生成するための顔識別制御可能GAN(FICGAN)を提案する。
この分析に基づいて,顔画像上の非同一性属性から同一性属性をアンタングル化することを学ぶ,自己エンコーダに基づく条件生成モデルであるFICGANを開発した。
論文 参考訳(メタデータ) (2021-10-02T07:09:27Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z) - FaceShifter: Towards High Fidelity And Occlusion Aware Face Swapping [43.236261887752065]
本研究では,顔交換のための2段階フレームワークであるFaceShifterを提案する。
最初の段階では、ターゲット属性を徹底的かつ適応的に利用して、スワップされた顔を高忠実に生成する。
難解な顔合成に対処するために、HEAR-Net(Huristic Err Accnowledging Refinement Network)と呼ばれる新しいヒューリスティック・エラー認識ネットワーク(Heuristic Err Acknowledging Refinement Network)の第2ステージを付加する。
論文 参考訳(メタデータ) (2019-12-31T17:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。