論文の概要: VAE/WGAN-Based Image Representation Learning For Pose-Preserving
Seamless Identity Replacement In Facial Images
- arxiv url: http://arxiv.org/abs/2003.00641v1
- Date: Mon, 2 Mar 2020 03:35:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 04:41:09.076128
- Title: VAE/WGAN-Based Image Representation Learning For Pose-Preserving
Seamless Identity Replacement In Facial Images
- Title(参考訳): VAE/WGANによる顔画像のシームレス・アイデンティティ置換のための画像表現学習
- Authors: Hiroki Kawai, Jiawei Chen, Prakash Ishwar, Janusz Konrad
- Abstract要約: We present a novel variational generative adversarial network (VGAN) based on Wasserstein loss。
我々のネットワークは、ポーズ保存されたアイデンティティ・モーフィングとアイデンティティ保存されたポーズ・モーフィングの実行に利用できることを示す。
- 参考スコア(独自算出の注目度): 15.855376604558977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel variational generative adversarial network (VGAN) based on
Wasserstein loss to learn a latent representation from a face image that is
invariant to identity but preserves head-pose information. This facilitates
synthesis of a realistic face image with the same head pose as a given input
image, but with a different identity. One application of this network is in
privacy-sensitive scenarios; after identity replacement in an image, utility,
such as head pose, can still be recovered. Extensive experimental validation on
synthetic and real human-face image datasets performed under 3 threat scenarios
confirms the ability of the proposed network to preserve head pose of the input
image, mask the input identity, and synthesize a good-quality realistic face
image of a desired identity. We also show that our network can be used to
perform pose-preserving identity morphing and identity-preserving pose
morphing. The proposed method improves over a recent state-of-the-art method in
terms of quantitative metrics as well as synthesized image quality.
- Abstract(参考訳): 本稿では,同一性に不変だが頭部情報を保持する顔画像から潜在表現を学習するために,wassersteinの損失に基づくvgan(variational generative adversarial network)を提案する。
これにより、入力画像と同一の頭部ポーズを持つ現実的な顔画像の合成が容易になるが、同一性が異なる。
このネットワークの1つのアプリケーションはプライバシに敏感なシナリオであり、イメージ内のアイデンティティ置換後、ヘッドポーズのようなユーティリティを回復することができる。
3つの脅威シナリオで実施した合成および実顔画像データセットの広範な実験検証により、提案ネットワークが入力画像の頭部の姿勢を保存し、入力idをマスクし、望ましいアイデンティティの高品質なリアルな顔画像を合成する能力が確認された。
また,我々のネットワークは,ポーズ保存型アイデンティティモーフィングとアイデンティティ保存型ポーズモーフィングの実行に使用できることを示した。
提案手法は, 定量化および合成画像品質の観点から, 最新の最先端手法を改良する。
関連論文リスト
- AniFaceDiff: High-Fidelity Face Reenactment via Facial Parametric Conditioned Diffusion Models [33.39336530229545]
顔再現とは、ポーズと表情を、参照(運転)ビデオから静的な顔(ソース)画像に転送する過程を指す。
この領域における以前の研究は、顔を生成するために制御可能な深層生成モデルを訓練することで大きな進歩を遂げた。
本稿では,AniFaceDiffと呼ばれる安定拡散に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-19T07:08:48Z) - Adversarial Identity Injection for Semantic Face Image Synthesis [6.763801424109435]
我々は、顔を生成するためにアイデンティティ、スタイル、セマンティック特徴をマージするクロスアテンション機構を利用するSISアーキテクチャを提案する。
実験結果から,提案手法は識別情報の保存に適するだけでなく,顔認識対向攻撃にも有効であることが判明した。
論文 参考訳(メタデータ) (2024-04-16T09:19:23Z) - StableIdentity: Inserting Anybody into Anywhere at First Sight [57.99693188913382]
一つの顔画像で同一性に一貫性のある再テクスチャ化を可能にするStableIdentityを提案する。
私たちは、1つの画像から学んだアイデンティティを直接、微調整なしでビデオ/3D生成に注入する最初の人です。
論文 参考訳(メタデータ) (2024-01-29T09:06:15Z) - When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - Disentangling Identity and Pose for Facial Expression Recognition [54.50747989860957]
より識別的な特徴表現を学習するために,識別モデルを提案し,不整形表情認識(IPD-FER)モデルを提案する。
アイデンティティエンコーダでは、訓練中に訓練済みの顔認識モデルを利用して固定し、特定の表情訓練データに対する制限を軽減する。
合成された中性画像と同一個体の表情画像との差を比較することにより、表現成分はアイデンティティやポーズからさらに切り離される。
論文 参考訳(メタデータ) (2022-08-17T06:48:13Z) - Graph-based Generative Face Anonymisation with Pose Preservation [49.18049578591058]
AnonyGANは、顔の匿名化のためのGANベースのソリューションである。
ソースアイデンティティに対応する視覚情報を、任意の単一のイメージとして提供される条件IDに置き換える。
論文 参考訳(メタデータ) (2021-12-10T12:58:17Z) - A Systematical Solution for Face De-identification [6.244117712209321]
異なるタスクにおいて、人々は顔の特定(De-ID)に様々な要件を持つ
本稿では,これらのDe-ID操作に適合する系統的解を提案する。
本手法は,様々な方法で顔データを柔軟に識別し,画像の画質が向上する。
論文 参考訳(メタデータ) (2021-07-19T02:02:51Z) - IdentityDP: Differential Private Identification Protection for Face
Images [17.33916392050051]
顔の非識別、別名顔の匿名化は、実際のアイデンティティが隠されている間、同様の外観と同じ背景を持つ別の画像を生成することを指します。
我々は,データ駆動型ディープニューラルネットワークと差分プライバシー機構を組み合わせた顔匿名化フレームワークであるIdentityDPを提案する。
我々のモデルは、顔の識別関連情報を効果的に難読化し、視覚的類似性を保ち、高品質な画像を生成することができる。
論文 参考訳(メタデータ) (2021-03-02T14:26:00Z) - Person image generation with semantic attention network for person
re-identification [9.30413920076019]
本稿では,意味的注意ネットワークと呼ばれる新しい人物のポーズ誘導画像生成手法を提案する。
ネットワークはいくつかのセマンティックアテンションブロックで構成されており、各ブロックはポーズコードと衣服のテクスチャを保存および更新する。
他の方法と比較して、我々のネットワークはより優れた身体形状を特徴付けることができ、同時に衣服の属性を保持することができる。
論文 参考訳(メタデータ) (2020-08-18T12:18:51Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。