論文の概要: DeepFN: Towards Generalizable Facial Action Unit Recognition with Deep
Face Normalization
- arxiv url: http://arxiv.org/abs/2103.02484v1
- Date: Wed, 3 Mar 2021 15:50:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 15:13:00.607306
- Title: DeepFN: Towards Generalizable Facial Action Unit Recognition with Deep
Face Normalization
- Title(参考訳): DeepFN:Deep Face Normalizationによる顔認識の一般化に向けて
- Authors: Javier Hernandez, Daniel McDuff, Ognjen (Oggi) Rudovic, Alberto Fung,
Mary Czerwinski
- Abstract要約: この研究は、個人(40人)、性別(男性と女性)、肌型(ダーカーとライター)、データベース(BP4DとDIFA)、など、様々な側面にわたるパフォーマンスの詳細な分析を行う。
個人非依存モデルでは, 個人依存モデル (60.3%) よりも性能が有意に低く, 平均F1は55%, 精度は40名に対して60.3%, 一般化ギャップは5.3%であった。
新たに導入されたDeepFNによるデータの正規化は、個人に依存しないモデルの性能を著しく向上させた(59.6%)
- 参考スコア(独自算出の注目度): 20.07793902338722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial action unit recognition has many applications from market research to
psychotherapy and from image captioning to entertainment. Despite its recent
progress, deployment of these models has been impeded due to their limited
generalization to unseen people and demographics. This work conducts an
in-depth analysis of performance across several dimensions: individuals(40
subjects), genders (male and female), skin types (darker and lighter), and
databases (BP4D and DISFA). To help suppress the variance in data, we use the
notion of self-supervised denoising autoencoders to design a method for deep
face normalization(DeepFN) that transfers facial expressions of different
people onto a common facial template which is then used to train and evaluate
facial action recognition models. We show that person-independent models yield
significantly lower performance (55% average F1 and accuracy across 40
subjects) than person-dependent models (60.3%), leading to a generalization gap
of 5.3%. However, normalizing the data with the newly introduced DeepFN
significantly increased the performance of person-independent models (59.6%),
effectively reducing the gap. Similarly, we observed generalization gaps when
considering gender (2.4%), skin type (5.3%), and dataset (9.4%), which were
significantly reduced with the use of DeepFN. These findings represent an
important step towards the creation of more generalizable facial action unit
recognition systems.
- Abstract(参考訳): 顔行動単位認識は、市場研究から精神療法、画像キャプションからエンターテイメントまで、多くの応用がある。
最近の進歩にもかかわらず、これらのモデルの展開は、見えない人々や人口層への限定的な一般化のために妨げられています。
この研究は、個人(40名)、性別(男性と女性)、肌の種類(ダークとライター)、データベース(bp4dとdisfa)など、さまざまな次元のパフォーマンスを詳細に分析している。
データのばらつきを抑制するために, 自己監視型自動エンコーダの概念を用いて, 深顔正規化 (DeepFN) の手法を設計し, 異なる人の表情を共通の顔認識テンプレートに転送し, 顔認識モデルの訓練と評価を行う。
個人非依存モデルでは, 個人依存モデル (60.3%) よりも性能が有意に低く, 平均F1は55%, 精度は40名に対して60.3%, 一般化ギャップは5.3%であった。
しかし、新たに導入されたDeepFNによるデータの正規化は、個人に依存しないモデル(59.6%)の性能を大幅に向上させ、ギャップを効果的に減らした。
同様に、deepfnの使用により大幅に減少した性別(2.4%)、肌型(5.3%)、データセット(9.4%)を考慮した場合、一般化ギャップが観察された。
これらの知見は、より一般化可能な顔行動単位認識システムの構築に向けた重要なステップである。
関連論文リスト
- Balancing the Scales: Enhancing Fairness in Facial Expression Recognition with Latent Alignment [5.784550537553534]
このワークル平均は、表情認識システムにおけるバイアスを軽減するために、潜在空間に基づく表現学習を行う。
また、ディープラーニングモデルの公平性と全体的な正確性も向上する。
論文 参考訳(メタデータ) (2024-10-25T10:03:10Z) - AiOS: All-in-One-Stage Expressive Human Pose and Shape Estimation [55.179287851188036]
人間のポーズと形状の復元のための新しいオールインワンステージフレームワークであるAiOSを、追加の人間検出ステップなしで導入する。
まず、画像中の人間の位置を探索し、各インスタンスのグローバルな機能をエンコードするために、人間のトークンを使用します。
そして、画像中の人間の関節を探索し、きめ細かい局所的特徴を符号化するジョイント関連トークンを導入する。
論文 参考訳(メタデータ) (2024-03-26T17:59:23Z) - Personalization of Affective Models to Enable Neuropsychiatric Digital
Precision Health Interventions: A Feasibility Study [0.820591242098274]
自閉症スペクトラム障害(ASD)に対するモバイルデジタル治療は、しばしば感情認識と誘発を標的としている。
本稿では,モデルパーソナライズの可能性を探り,一人ひとりの感情認識モデルを訓練する。
一連の感情を喚起する被験者の映像データセットであるEmognitionデータセットについて実験を行った。
論文 参考訳(メタデータ) (2023-09-21T07:16:50Z) - Learning Diversified Feature Representations for Facial Expression
Recognition in the Wild [97.14064057840089]
本稿では,CNN層が抽出した顔表情認識アーキテクチャの特徴を多様化する機構を提案する。
AffectNet,FER+,RAF-DBの3つの顔表情認識実験の結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-10-17T19:25:28Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Multi-modal Affect Analysis using standardized data within subjects in
the Wild [8.05417723395965]
本稿では,表情(EXP)に着目した感情認識手法を提案する。
提案手法は,評価精度とロバスト性を効果的に向上する。
論文 参考訳(メタデータ) (2021-07-07T04:18:28Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Improving DeepFake Detection Using Dynamic Face Augmentation [0.8793721044482612]
ほとんどの公開可能なDeepFake検出データセットには、限られたバリエーションがある。
ディープニューラルネットワークは、DeepFakeコンテンツの操作機能を検出するための学習ではなく、顔の特徴にオーバーフィットする傾向があります。
DeepFake検出を改善するために、CNN(Convolutional Neural Networks)をトレーニングするためのデータ拡張方法であるFace-Cutoutを紹介します。
論文 参考訳(メタデータ) (2021-02-18T20:25:45Z) - Improving Makeup Face Verification by Exploring Part-Based
Representations [0.0]
我々は,現在の全体表現と融合する顔部の導入を提案,評価する。
実験の結果, 顔部から抽出した深部特徴と全体表現との融合により, 顔認証システムの精度が向上した。
論文 参考訳(メタデータ) (2021-01-18T21:51:38Z) - Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer [51.926868759681014]
骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
論文 参考訳(メタデータ) (2020-08-20T09:49:13Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。