論文の概要: Disentangling Identity and Pose for Facial Expression Recognition
- arxiv url: http://arxiv.org/abs/2208.08106v1
- Date: Wed, 17 Aug 2022 06:48:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 12:57:08.468488
- Title: Disentangling Identity and Pose for Facial Expression Recognition
- Title(参考訳): 顔の表情認識のための識別と姿勢の遠ざかる
- Authors: Jing Jiang and Weihong Deng
- Abstract要約: より識別的な特徴表現を学習するために,識別モデルを提案し,不整形表情認識(IPD-FER)モデルを提案する。
アイデンティティエンコーダでは、訓練中に訓練済みの顔認識モデルを利用して固定し、特定の表情訓練データに対する制限を軽減する。
合成された中性画像と同一個体の表情画像との差を比較することにより、表現成分はアイデンティティやポーズからさらに切り離される。
- 参考スコア(独自算出の注目度): 54.50747989860957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial expression recognition (FER) is a challenging problem because the
expression component is always entangled with other irrelevant factors, such as
identity and head pose. In this work, we propose an identity and pose
disentangled facial expression recognition (IPD-FER) model to learn more
discriminative feature representation. We regard the holistic facial
representation as the combination of identity, pose and expression. These three
components are encoded with different encoders. For identity encoder, a well
pre-trained face recognition model is utilized and fixed during training, which
alleviates the restriction on specific expression training data in previous
works and makes the disentanglement practicable on in-the-wild datasets. At the
same time, the pose and expression encoder are optimized with corresponding
labels. Combining identity and pose feature, a neutral face of input individual
should be generated by the decoder. When expression feature is added, the input
image should be reconstructed. By comparing the difference between synthesized
neutral and expressional images of the same individual, the expression
component is further disentangled from identity and pose. Experimental results
verify the effectiveness of our method on both lab-controlled and in-the-wild
databases and we achieve state-of-the-art recognition performance.
- Abstract(参考訳): 表情認識(FER)は、表情成分が同一性や頭部ポーズなど他の無関係な要因と常に絡み合っているため、難しい問題である。
本研究では,より識別的な特徴表現を学習するために,識別モデルを提案し,不整形表情認識(IPD-FER)モデルを提案する。
我々は、全体像をアイデンティティ、ポーズ、表現の組み合わせと見なしている。
これら3つのコンポーネントは異なるエンコーダでエンコードされる。
アイデンティティエンコーダでは、トレーニング中に訓練済みの顔認識モデルを使用し固定することにより、以前の作業における特定の表情訓練データに対する制限を緩和し、その非絡み合いを現場のデータセットで実行できるようにする。
同時に、ポーズと式エンコーダは対応するラベルに最適化される。
アイデンティティとポーズの特徴を組み合わせることで、入力された個人の中立な顔はデコーダによって生成されるべきである。
表現特徴が追加されると、入力画像が再構成される。
同一個体の合成中性画像と発現画像の差異を比較することにより、表現成分を同一性とポーズからさらに分離する。
実験結果から,本手法が実験室内および実験室内データベース上で有効であることを確認した。
関連論文リスト
- Adversarial Identity Injection for Semantic Face Image Synthesis [6.763801424109435]
我々は、顔を生成するためにアイデンティティ、スタイル、セマンティック特徴をマージするクロスアテンション機構を利用するSISアーキテクチャを提案する。
実験結果から,提案手法は識別情報の保存に適するだけでなく,顔認識対向攻撃にも有効であることが判明した。
論文 参考訳(メタデータ) (2024-04-16T09:19:23Z) - Personalized Face Inpainting with Diffusion Models by Parallel Visual
Attention [55.33017432880408]
本稿では,パラレル視覚注意(PVA, Parallel Visual Attention, PVA)と拡散モデルとの併用による塗装結果の改善を提案する。
我々はCelebAHQ-IDIで注目モジュールとIDエンコーダをトレーニングする。
実験により, PVAは顔の塗り絵と顔の塗り絵の両面において, 言語指導タスクと相容れない同一性を持つことが示された。
論文 参考訳(メタデータ) (2023-12-06T15:39:03Z) - FaceDancer: Pose- and Occlusion-Aware High Fidelity Face Swapping [62.38898610210771]
そこで我々は,FaceDancerという顔のスワップとID転送のための新しい単一ステージ手法を提案する。
アダプティブ・フィーチャー・フュージョン・アテンション(AFFA)と解釈的特徴類似性規則化(IFSR)の2つの主要なコントリビューションがある。
論文 参考訳(メタデータ) (2022-10-19T11:31:38Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Emotion Separation and Recognition from a Facial Expression by Generating the Poker Face with Vision Transformers [57.1091606948826]
我々はこれらの課題に対処するため,ポーカー・フェイス・ビジョン・トランスフォーマー (PF-ViT) と呼ばれる新しいFERモデルを提案する。
PF-ViTは、対応するポーカーフェースを生成して、乱れを認識できない感情を静的な顔画像から分離し、認識することを目的としている。
PF-ViTはバニラビジョントランスフォーマーを使用し、そのコンポーネントは大規模な表情データセット上でMasked Autoencodeerとして事前トレーニングされている。
論文 参考訳(メタデータ) (2022-07-22T13:39:06Z) - SynFace: Face Recognition with Synthetic Data [83.15838126703719]
我々は、ID混在(IM)とドメイン混在(DM)を併用したSynFaceを考案し、パフォーマンスギャップを緩和する。
また、合成顔画像の系統的実験分析を行い、合成データを顔認識に効果的に活用する方法についての知見を提供する。
論文 参考訳(メタデータ) (2021-08-18T03:41:54Z) - LI-Net: Large-Pose Identity-Preserving Face Reenactment Network [14.472453602392182]
大規模ID保存顔再生ネットワークLI-Netを提案します。
特にランドマーク変換器は、走行するランドマーク画像を調整するために採用されている。
Face Rotation ModuleとExpression Enhancing Generatorは、変換されたランドマーク画像をポーズと式の特徴に分離し、それらの属性を別々に再現してアイデンティティ保護顔を生成する。
論文 参考訳(メタデータ) (2021-04-07T01:41:21Z) - Mutual Information Regularized Identity-aware Facial
ExpressionRecognition in Compressed Video [27.602648102881535]
本稿では,相互情報(MI)を最小化するための新しい協調ミンミニゲームを提案する。
同一人物からの識別ラベルや複数の表現サンプルは不要である。
我々のソリューションは、最近のデコードされた画像ベース手法に匹敵する、あるいは優れた性能を実現することができる。
論文 参考訳(メタデータ) (2020-10-20T21:42:18Z) - An Efficient Integration of Disentangled Attended Expression and
Identity FeaturesFor Facial Expression Transfer andSynthesis [6.383596973102899]
本稿では,AIP-GAN(Attention-based Identity Preserving Generative Adversarial Network)を提案する。
私たちのキーとなる洞察は、アイデンティティ保存ネットワークは、効率的な表情の転送と合成のために、形状、外観、表現情報を分離して構成できるべきであるということです。
論文 参考訳(メタデータ) (2020-05-01T17:14:53Z) - VAE/WGAN-Based Image Representation Learning For Pose-Preserving
Seamless Identity Replacement In Facial Images [15.855376604558977]
We present a novel variational generative adversarial network (VGAN) based on Wasserstein loss。
我々のネットワークは、ポーズ保存されたアイデンティティ・モーフィングとアイデンティティ保存されたポーズ・モーフィングの実行に利用できることを示す。
論文 参考訳(メタデータ) (2020-03-02T03:35:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。