論文の概要: An Efficient Integration of Disentangled Attended Expression and
Identity FeaturesFor Facial Expression Transfer andSynthesis
- arxiv url: http://arxiv.org/abs/2005.00499v1
- Date: Fri, 1 May 2020 17:14:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 00:13:02.272061
- Title: An Efficient Integration of Disentangled Attended Expression and
Identity FeaturesFor Facial Expression Transfer andSynthesis
- Title(参考訳): 顔の表情伝達と合成のための遠方注意表現と同一性特徴の効率的な統合
- Authors: Kamran Ali and Charles E. Hughes
- Abstract要約: 本稿では,AIP-GAN(Attention-based Identity Preserving Generative Adversarial Network)を提案する。
私たちのキーとなる洞察は、アイデンティティ保存ネットワークは、効率的な表情の転送と合成のために、形状、外観、表現情報を分離して構成できるべきであるということです。
- 参考スコア(独自算出の注目度): 6.383596973102899
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present an Attention-based Identity Preserving Generative
Adversarial Network (AIP-GAN) to overcome the identity leakage problem from a
source image to a generated face image, an issue that is encountered in a
cross-subject facial expression transfer and synthesis process. Our key insight
is that the identity preserving network should be able to disentangle and
compose shape, appearance, and expression information for efficient facial
expression transfer and synthesis. Specifically, the expression encoder of our
AIP-GAN disentangles the expression information from the input source image by
predicting its facial landmarks using our supervised spatial and channel-wise
attention module. Similarly, the disentangled expression-agnostic identity
features are extracted from the input target image by inferring its combined
intrinsic-shape and appearance image employing our self-supervised spatial and
channel-wise attention mod-ule. To leverage the expression and identity
information encoded by the intermediate layers of both of our encoders, we
combine these features with the features learned by the intermediate layers of
our decoder using a cross-encoder bilinear pooling operation. Experimental
results show the promising performance of our AIP-GAN based technique.
- Abstract(参考訳): 本稿では,顔画像から生成した顔画像への同一性漏洩問題を克服するために,aip-gan(ententent-based identity preservation generative adversarial network)を提案する。
私たちのキーとなる洞察は、アイデンティティ保存ネットワークは、効率的な表情の転送と合成のために、形状、外観、表現情報を分離して構成できるべきであるということです。
具体的には、AIP-GANの表現エンコーダは、空間的およびチャネル的注意モジュールを用いて顔のランドマークを予測することにより、入力元画像から表現情報を切り離す。
同様に、入力対象画像から、その内在的形状と、我々の自己監督的空間的・チャネル的注意変調を用いた外観像を推定することにより、不整合表現非依存性特徴を抽出する。
2つのエンコーダの中間層によってエンコードされる表現とアイデンティティ情報を活用するために、これらの特徴と、クロスエンコーダバイリニアプーリング操作を用いてデコーダの中間層によって学習された特徴を組み合わせる。
実験の結果, AIP-GAN に基づく手法の有望な性能を示した。
関連論文リスト
- G2Face: High-Fidelity Reversible Face Anonymization via Generative and Geometric Priors [71.69161292330504]
可逆顔匿名化(Reversible face anonymization)は、顔画像の繊細なアイデンティティ情報を、合成された代替品に置き換えようとしている。
本稿では,Gtextsuperscript2Faceを提案する。
提案手法は,高データの有効性を保ちながら,顔の匿名化と回復において既存の最先端技術よりも優れる。
論文 参考訳(メタデータ) (2024-08-18T12:36:47Z) - Adversarial Identity Injection for Semantic Face Image Synthesis [6.763801424109435]
我々は、顔を生成するためにアイデンティティ、スタイル、セマンティック特徴をマージするクロスアテンション機構を利用するSISアーキテクチャを提案する。
実験結果から,提案手法は識別情報の保存に適するだけでなく,顔認識対向攻撃にも有効であることが判明した。
論文 参考訳(メタデータ) (2024-04-16T09:19:23Z) - Infinite-ID: Identity-preserved Personalization via ID-semantics Decoupling Paradigm [31.06269858216316]
アイデンティティ保存型パーソナライゼーションのためのID-セマンティックデカップリングパラダイムであるInfinite-IDを提案する。
我々は、十分なID情報を取得するために、追加のイメージクロスアテンションモジュールを組み込んだアイデンティティ強化トレーニングを導入する。
また、2つのストリームをシームレスにマージするために、混合アテンションモジュールとAdaIN平均演算を組み合わせた機能相互作用機構を導入する。
論文 参考訳(メタデータ) (2024-03-18T13:39:53Z) - HFORD: High-Fidelity and Occlusion-Robust De-identification for Face
Privacy Protection [60.63915939982923]
顔の身元特定は、身元保護問題を解決するための実践的な方法である。
既存の顔の特定方法にはいくつかの問題がある。
これらの問題に対処するために,HFORD(High-Fidelity and Occlusion-Robust De-identification)法を提案する。
論文 参考訳(メタデータ) (2023-11-15T08:59:02Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - More comprehensive facial inversion for more effective expression
recognition [8.102564078640274]
IFER(Inversion FER)と呼ばれるFERタスクの画像反転機構に基づく新しい生成手法を提案する。
ASITは、分布アライメント損失に制約された、ソースと生成された画像間のセマンティック特徴のコサイン類似度を測定する画像反転判別器を備えている。
FFHQやCelebA-HQなどの顔データセット上でASITを広範囲に評価し,現状の顔インバージョン性能を実現する方法を示した。
論文 参考訳(メタデータ) (2022-11-24T12:31:46Z) - Disentangling Identity and Pose for Facial Expression Recognition [54.50747989860957]
より識別的な特徴表現を学習するために,識別モデルを提案し,不整形表情認識(IPD-FER)モデルを提案する。
アイデンティティエンコーダでは、訓練中に訓練済みの顔認識モデルを利用して固定し、特定の表情訓練データに対する制限を軽減する。
合成された中性画像と同一個体の表情画像との差を比較することにより、表現成分はアイデンティティやポーズからさらに切り離される。
論文 参考訳(メタデータ) (2022-08-17T06:48:13Z) - Learning Disentangled Representation for One-shot Progressive Face
Swapping [65.98684203654908]
ジェネレーティブ・アドバーサリアル・ネットワークに基づくワンショット・フェイススワップのためのシンプルで効率的なFaceSwapperを提案する。
提案手法は,不整合表現モジュールと意味誘導融合モジュールから構成される。
その結果,本手法は,トレーニングサンプルの少ないベンチマークで最先端の結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-24T11:19:04Z) - ShapeEditer: a StyleGAN Encoder for Face Swapping [6.848723869850855]
本研究では,高解像度,リアル,高忠実な顔交換のための新しいエンコーダであるShapeEditorを提案する。
私たちのキーとなるアイデアは、事前訓練された高品質のランダムな顔画像生成装置、すなわちStyleGANをバックボーンとして使用することです。
そこで我々は,StyleGANの潜在空間への写像を学習するために,自己教師付き損失関数の集合を提案する。
論文 参考訳(メタデータ) (2021-06-26T09:38:45Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。