論文の概要: Towards a General Deep Feature Extractor for Facial Expression
Recognition
- arxiv url: http://arxiv.org/abs/2201.07781v1
- Date: Wed, 19 Jan 2022 18:42:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-20 13:55:41.828864
- Title: Towards a General Deep Feature Extractor for Facial Expression
Recognition
- Title(参考訳): 表情認識のための汎用的深層特徴抽出器を目指して
- Authors: Liam Schoneveld, Alice Othmani
- Abstract要約: 本稿では,他の顔の感情認識タスクやデータセットに適用可能な,視覚的特徴抽出器を学習する,新たなディープラーニングベースのアプローチを提案する。
DeepFEVERは、AffectNetとGoogle Facial Expression Comparisonデータセットで最先端の結果を上回っている。
- 参考スコア(独自算出の注目度): 5.012963825796511
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The human face conveys a significant amount of information. Through facial
expressions, the face is able to communicate numerous sentiments without the
need for verbalisation. Visual emotion recognition has been extensively
studied. Recently several end-to-end trained deep neural networks have been
proposed for this task. However, such models often lack generalisation ability
across datasets. In this paper, we propose the Deep Facial Expression Vector
ExtractoR (DeepFEVER), a new deep learning-based approach that learns a visual
feature extractor general enough to be applied to any other facial emotion
recognition task or dataset. DeepFEVER outperforms state-of-the-art results on
the AffectNet and Google Facial Expression Comparison datasets. DeepFEVER's
extracted features also generalise extremely well to other datasets -- even
those unseen during training -- namely, the Real-World Affective Faces (RAF)
dataset.
- Abstract(参考訳): 人間の顔はかなりの量の情報を伝達する。
表情を通じて、顔は言語化を必要とせずに多数の感情を伝えることができる。
視覚的感情認識の研究が盛んである。
近年,この課題に対して,エンドツーエンドの深層ニューラルネットワークがいくつか提案されている。
しかし、そのようなモデルはデータセット間の一般化能力に欠けることが多い。
本稿では,他の顔感情認識タスクやデータセットに適用できるほど汎用的な視覚特徴抽出法を学習する,ディープラーニングに基づく新しいアプローチであるdeep face expression vector extractor (deepfever)を提案する。
DeepFEVERは、AffectNetとGoogle Facial Expression Comparisonデータセットで最先端の結果を上回っている。
DeepFEVERの抽出された機能は、トレーニング中に目に見えないデータセット、すなわちReal-World Affective Faces (RAF)データセットに対しても、非常にうまく一般化されている。
関連論文リスト
- Knowledge-Guided Prompt Learning for Deepfake Facial Image Detection [54.26588902144298]
ディープフェイク顔画像検出のための知識誘導型プロンプト学習法を提案する。
具体的には、学習可能なプロンプトの最適化を導くための専門家知識として、大規模言語モデルから偽造関連プロンプトを抽出する。
提案手法は最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2025-01-01T02:18:18Z) - Semantics-Oriented Multitask Learning for DeepFake Detection: A Joint Embedding Approach [77.65459419417533]
本稿ではセマンティクス指向のDeepFake検出タスクをサポートするための自動データセット拡張手法を提案する。
また,顔画像とそれに対応するラベルを併用して予測を行う。
提案手法は,DeepFake検出の一般化性を向上し,人間の理解可能な説明を提供することで,ある程度のモデル解釈を行う。
論文 参考訳(メタデータ) (2024-08-29T07:11:50Z) - Generalized Face Liveness Detection via De-fake Face Generator [52.23271636362843]
以前の顔アンチスプーフィング(FAS)手法は、目に見えない領域に一般化するという課題に直面している。
本稿では,大規模に付加的な現実面を効果的に活用できるAnomalous cue Guided FAS (AG-FAS)法を提案する。
提案手法は,未知のシナリオと未知のプレゼンテーションアタックを用いたクロスドメイン評価において,最先端の結果を実現する。
論文 参考訳(メタデータ) (2024-01-17T06:59:32Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Leveraging Recent Advances in Deep Learning for Audio-Visual Emotion
Recognition [2.1485350418225244]
人間の行動分析のために, 自発的なマルチモーダル感情認識が広く研究されている。
視聴覚感情認識のための深層学習に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-03-16T15:49:15Z) - A Multi-resolution Approach to Expression Recognition in the Wild [9.118706387430883]
顔認識タスクを解決するためのマルチリゾリューション手法を提案する。
私たちは、しばしば異なる解像度で画像が取得されるという観察を直感的に根拠としています。
我々は、Affect-in-the-Wild 2データセットに基づいてトレーニングされたSqueeze-and-Excitationブロックを備えたResNetのようなアーキテクチャを使用する。
論文 参考訳(メタデータ) (2021-03-09T21:21:02Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Facial Expression Recognition using Deep Learning [0.0]
表情を認識する能力は多くの新しい応用の道を開くだろう。
コントロールされた環境での従来のアプローチの成功にもかかわらず、これらのアプローチは部分的な顔からなる挑戦的なデータセットで失敗する。
論文 参考訳(メタデータ) (2020-06-07T06:32:05Z) - Real-time Facial Expression Recognition "In The Wild'' by Disentangling
3D Expression from Identity [6.974241731162878]
本稿では,1枚のRGB画像から人間の感情認識を行う新しい手法を提案する。
顔のダイナミックス、アイデンティティ、表情、外観、3Dポーズのバリエーションに富んだ大規模な顔ビデオデータセットを構築した。
提案するフレームワークは毎秒50フレームで動作し、3次元表現変動のパラメータを頑健に推定することができる。
論文 参考訳(メタデータ) (2020-05-12T01:32:55Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。