論文の概要: Generative Adversarial Stacked Autoencoders for Facial Pose
Normalization and Emotion Recognition
- arxiv url: http://arxiv.org/abs/2007.09790v1
- Date: Sun, 19 Jul 2020 21:47:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 23:56:43.770653
- Title: Generative Adversarial Stacked Autoencoders for Facial Pose
Normalization and Emotion Recognition
- Title(参考訳): 表情の正規化と感情認識のための生成的対向重積オートエンコーダ
- Authors: Ariel Ruiz-Garcia, Vasile Palade, Mark Elshaw, Mariette Awad
- Abstract要約: 本稿では,表情のマッピングを学習するジェネレーティブ・アドバイサル・スタックド・オートエンコーダを提案する。
野生で採集された顔の感情認識コーパスについて,最先端のパフォーマンスを報告した。
- 参考スコア(独自算出の注目度): 4.620526905329234
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this work, we propose a novel Generative Adversarial Stacked Autoencoder
that learns to map facial expressions, with up to plus or minus 60 degrees, to
an illumination invariant facial representation of 0 degrees. We accomplish
this by using a novel convolutional layer that exploits both local and global
spatial information, and a convolutional layer with a reduced number of
parameters that exploits facial symmetry. Furthermore, we introduce a
generative adversarial gradual greedy layer-wise learning algorithm designed to
train Adversarial Autoencoders in an efficient and incremental manner. We
demonstrate the efficiency of our method and report state-of-the-art
performance on several facial emotion recognition corpora, including one
collected in the wild.
- Abstract(参考訳): 本研究では,最大60度以上の表情を0度の照明不変な表情表現にマッピングすることを学ぶ,新しい生成的逆向き自動エンコーダを提案する。
局所空間情報と大域的空間情報の両方を利用する新しい畳み込み層と、顔の対称性を利用するパラメータの少ない畳み込み層を用いてこれを達成する。
さらに, 逐次的かつ効率的な自動エンコーダの学習を目的とした, 逐次的逆回帰層学習アルゴリズムを提案する。
本手法の有効性を実証し,実地で収集した顔を含む複数の表情認識コーパスにおける最先端のパフォーマンスを報告する。
関連論文リスト
- DreamIdentity: Improved Editability for Efficient Face-identity
Preserved Image Generation [69.16517915592063]
人間の顔の正確な表現を学習するための新しい顔識別エンコーダを提案する。
また、モデルの編集可能性を高めるために、自己拡張編集可能性学習を提案する。
我々の手法は、異なるシーン下でより高速にアイデンティティ保存された画像を生成することができる。
論文 参考訳(メタデータ) (2023-07-01T11:01:17Z) - Multi-Domain Norm-referenced Encoding Enables Data Efficient Transfer
Learning of Facial Expression Recognition [62.997667081978825]
本稿では,表情認識における伝達学習のための生物学的メカニズムを提案する。
提案アーキテクチャでは,人間の脳が,頭部形状の異なる表情を自然に認識する方法について解説する。
本モデルでは, FERGデータセットの分類精度92.15%を極端に高いデータ効率で達成する。
論文 参考訳(メタデータ) (2023-04-05T09:06:30Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - Emotion Separation and Recognition from a Facial Expression by
Generating the Poker Face with Vision Transformers [57.67586172996843]
静的な顔画像から外乱非依存の感情を分離し認識するための新しいFERモデルであるポーカー・フェイス・ビジョン・トランスフォーマー(PF-ViT)を提案する。
PF-ViTは、ペア画像なしで対応するポーカーフェイスを生成する。
論文 参考訳(メタデータ) (2022-07-22T13:39:06Z) - AGA-GAN: Attribute Guided Attention Generative Adversarial Network with
U-Net for Face Hallucination [15.010153819096056]
本稿では,属性誘導注意(AGA)モジュールを用いた属性誘導注意生成ネットワークを提案する。
AGA-GANとAGA-GAN+U-Netフレームワークは、他の最先端のハロシン化技術よりも優れている。
論文 参考訳(メタデータ) (2021-11-20T13:43:03Z) - FaceController: Controllable Attribute Editing for Face in the Wild [74.56117807309576]
単純なフィードフォワードネットワークを提案し、高忠実度な顔を生成する。
本手法では,既存かつ容易に把握可能な事前情報を利用することで,野生の多様な顔属性の制御,転送,編集を行うことができる。
本手法では,3Dプリミティブを用いてアイデンティティ,表現,ポーズ,イルミネーションを分離し,地域別スタイルコードを用いてテクスチャとカラーを分離する。
論文 参考訳(メタデータ) (2021-02-23T02:47:28Z) - Emotion Transfer Using Vector-Valued Infinite Task Learning [2.588412672658578]
本稿では,無限タスク学習とベクトル値再生カーネルHilbert空間に基づく新しいスタイル転送フレームワークを提案する。
我々は、顔のイメージを異なるターゲットの感情に変換することを目標とする感情伝達のアイデアをインスタンス化する。
論文 参考訳(メタデータ) (2021-02-09T19:05:56Z) - MagGAN: High-Resolution Face Attribute Editing with Mask-Guided
Generative Adversarial Network [145.4591079418917]
MagGANは、望ましい属性変更に関連する顔の部分のみを編集することを学ぶ。
各属性変更の影響領域をジェネレータに組み込むために、新しいマスク誘導条件付け戦略を導入する。
高解像度(1024×1024$)の顔編集のために,マルチレベルパッチワイド識別器構造を提案する。
論文 参考訳(メタデータ) (2020-10-03T20:56:16Z) - Head2Head++: Deep Facial Attributes Re-Targeting [6.230979482947681]
我々は,顔の3次元形状とGANを利用して,顔と頭部の再現作業のための新しいディープラーニングアーキテクチャを設計する。
駆動単眼動作から複雑な非剛性顔の動きを捉え,時間的に一貫した映像を合成する。
我々のシステムは、ほぼリアルタイムでエンドツーエンドの再現(18fps)を行う。
論文 参考訳(メタデータ) (2020-06-17T23:38:37Z) - An Efficient Integration of Disentangled Attended Expression and
Identity FeaturesFor Facial Expression Transfer andSynthesis [6.383596973102899]
本稿では,AIP-GAN(Attention-based Identity Preserving Generative Adversarial Network)を提案する。
私たちのキーとなる洞察は、アイデンティティ保存ネットワークは、効率的な表情の転送と合成のために、形状、外観、表現情報を分離して構成できるべきであるということです。
論文 参考訳(メタデータ) (2020-05-01T17:14:53Z) - FaceShifter: Towards High Fidelity And Occlusion Aware Face Swapping [43.236261887752065]
本研究では,顔交換のための2段階フレームワークであるFaceShifterを提案する。
最初の段階では、ターゲット属性を徹底的かつ適応的に利用して、スワップされた顔を高忠実に生成する。
難解な顔合成に対処するために、HEAR-Net(Huristic Err Accnowledging Refinement Network)と呼ばれる新しいヒューリスティック・エラー認識ネットワーク(Heuristic Err Acknowledging Refinement Network)の第2ステージを付加する。
論文 参考訳(メタデータ) (2019-12-31T17:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。