論文の概要: Graph-based Generative Face Anonymisation with Pose Preservation
- arxiv url: http://arxiv.org/abs/2112.05496v1
- Date: Fri, 10 Dec 2021 12:58:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 14:47:30.112252
- Title: Graph-based Generative Face Anonymisation with Pose Preservation
- Title(参考訳): Pose Preservationを用いたグラフベース生成顔匿名化
- Authors: Nicola Dall'Asen, Yiming Wang, Hao Tang, Luca Zanella and Elisa Ricci
- Abstract要約: AnonyGANは、顔の匿名化のためのGANベースのソリューションである。
ソースアイデンティティに対応する視覚情報を、任意の単一のイメージとして提供される条件IDに置き換える。
- 参考スコア(独自算出の注目度): 49.18049578591058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose AnonyGAN, a GAN-based solution for face anonymisation which
replaces the visual information corresponding to a source identity with a
condition identity provided as any single image. With the goal to maintain the
geometric attributes of the source face, i.e., the facial pose and expression,
and to promote more natural face generation, we propose to exploit a Bipartite
Graph to explicitly model the relations between the facial landmarks of the
source identity and the ones of the condition identity through a deep model. We
further propose a landmark attention model to relax the manual selection of
facial landmarks, allowing the network to weight the landmarks for the best
visual naturalness and pose preservation. Finally, to facilitate the appearance
learning, we propose a hybrid training strategy to address the challenge caused
by the lack of direct pixel-level supervision. We evaluate our method and its
variants on two public datasets, CelebA and LFW, in terms of visual
naturalness, facial pose preservation and of its impacts on face detection and
re-identification. We prove that AnonyGAN significantly outperforms the
state-of-the-art methods in terms of visual naturalness, face detection and
pose preservation.
- Abstract(参考訳): 我々は,顔の匿名化のためのGANベースのソリューションであるAnonyGANを提案し,ソースの同一性に対応する視覚情報を,任意の画像として提供される条件の同一性に置き換える。
対象の顔の幾何学的属性、すなわち顔のポーズと表情を維持し、より自然な顔生成を促進することを目的として、ソースアイデンティティの顔面ランドマークと状態同一性の関係をディープモデルを通じて明示的にモデル化する二部グラフを提案する。
さらに、顔ランドマークの手動選択を緩和し、ネットワークがランドマークを重み付け、最良の視覚的自然性とポーズ保存を可能にするランドマーク注意モデルを提案する。
最後に,視認学習を容易にするために,画素レベルの直接監督の欠如による課題に対処するためのハイブリッドトレーニング戦略を提案する。
本手法とその変種を2つの公開データセット,celebaとlfw上で評価し,視覚的自然性,顔のポーズ保存,顔検出および再同定への影響について検討した。
視覚的自然性, 顔検出, ポーズ保存において, アノニガンは最先端の手法を著しく上回っていることを証明した。
関連論文リスト
- OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - AniFaceDiff: High-Fidelity Face Reenactment via Facial Parametric Conditioned Diffusion Models [33.39336530229545]
顔再現とは、ポーズと表情を、参照(運転)ビデオから静的な顔(ソース)画像に転送する過程を指す。
この領域における以前の研究は、顔を生成するために制御可能な深層生成モデルを訓練することで大きな進歩を遂げた。
本稿では,AniFaceDiffと呼ばれる安定拡散に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-19T07:08:48Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - Finding Directions in GAN's Latent Space for Neural Face Reenactment [45.67273942952348]
本論文は顔/頭部の再現において,対象顔の顔ポーズ(3D頭部の向きと表情)を元顔に転送することが目的である。
我々は、訓練済みの(微調整済みの)GANを使用することで、そのようなネットワークのトレーニングを回避し、異なるアプローチをとる。
GAN潜伏空間に実画像を埋め込むことで,実世界の顔の再現に有効であることを示す。
論文 参考訳(メタデータ) (2022-01-31T19:14:03Z) - Learning to Aggregate and Personalize 3D Face from In-the-Wild Photo
Collection [65.92058628082322]
非パラメトリックフェースモデリングは形状仮定なしで画像からのみ3次元フェースを再構成することを目的としている。
本稿では,教師なしのロバストな3次元顔モデリングのための学習・アグリゲート・パーソナライズ・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T03:10:17Z) - Face Anonymization by Manipulating Decoupled Identity Representation [5.26916168336451]
本稿では,顔画像の識別情報をわずかな修正で漏洩から保護する手法を提案する。
具体的には、生成的敵ネットワークの力を利用する他の顔属性と同一性表現を分離する。
モデルの不整合性を回避し、匿名性生成(AIG)を効果的に行う手法を提案する。
論文 参考訳(メタデータ) (2021-05-24T07:39:54Z) - FaR-GAN for One-Shot Face Reenactment [20.894596219099164]
本稿では,任意の音源の顔画像とターゲット表現のみを入力として用いた一発顔再現モデルFaR-GANを提案する。
提案手法は,音源の同一性,表情,頭部ポーズ,さらには画像背景についても仮定しない。
論文 参考訳(メタデータ) (2020-05-13T16:15:37Z) - VAE/WGAN-Based Image Representation Learning For Pose-Preserving
Seamless Identity Replacement In Facial Images [15.855376604558977]
We present a novel variational generative adversarial network (VGAN) based on Wasserstein loss。
我々のネットワークは、ポーズ保存されたアイデンティティ・モーフィングとアイデンティティ保存されたポーズ・モーフィングの実行に利用できることを示す。
論文 参考訳(メタデータ) (2020-03-02T03:35:59Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。