論文の概要: MAFER: a Multi-resolution Approach to Facial Expression Recognition
- arxiv url: http://arxiv.org/abs/2105.02481v1
- Date: Thu, 6 May 2021 07:26:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 13:23:56.094853
- Title: MAFER: a Multi-resolution Approach to Facial Expression Recognition
- Title(参考訳): MAFER: 顔表情認識のためのマルチレゾリューションアプローチ
- Authors: Fabio Valerio Massoli, Donato Cafarelli, Claudio Gennaro, Giuseppe
Amato, Fabrizio Falchi
- Abstract要約: そこで本稿では,表情認識に携わる深層学習モデルを訓練するための2段階学習手法であるMAFERを提案する。
MAFERの関連する特徴は、タスクに依存しない、すなわち、他の客観的関連技術に補完的に使用できることである。
- 参考スコア(独自算出の注目度): 9.878384185493623
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Emotions play a central role in the social life of every human being, and
their study, which represents a multidisciplinary subject, embraces a great
variety of research fields. Especially concerning the latter, the analysis of
facial expressions represents a very active research area due to its relevance
to human-computer interaction applications. In such a context, Facial
Expression Recognition (FER) is the task of recognizing expressions on human
faces. Typically, face images are acquired by cameras that have, by nature,
different characteristics, such as the output resolution. It has been already
shown in the literature that Deep Learning models applied to face recognition
experience a degradation in their performance when tested against
multi-resolution scenarios. Since the FER task involves analyzing face images
that can be acquired with heterogeneous sources, thus involving images with
different quality, it is plausible to expect that resolution plays an important
role in such a case too. Stemming from such a hypothesis, we prove the benefits
of multi-resolution training for models tasked with recognizing facial
expressions. Hence, we propose a two-step learning procedure, named MAFER, to
train DCNNs to empower them to generate robust predictions across a wide range
of resolutions. A relevant feature of MAFER is that it is task-agnostic, i.e.,
it can be used complementarily to other objective-related techniques. To assess
the effectiveness of the proposed approach, we performed an extensive
experimental campaign on publicly available datasets: \fer{}, \raf{}, and
\oulu{}. For a multi-resolution context, we observe that with our approach,
learning models improve upon the current SotA while reporting comparable
results in fix-resolution contexts. Finally, we analyze the performance of our
models and observe the higher discrimination power of deep features generated
from them.
- Abstract(参考訳): 感情はすべての人の社会生活において中心的な役割を担い、その研究は多分野の主題であり、様々な研究分野を受け入れている。
特に後者については、人-コンピュータインタラクションアプリケーションとの関連性から、表情の分析は非常に活発な研究領域である。
このような状況下では、表情認識(FER)は人間の顔の表情を認識するタスクである。
通常、顔画像は出力解像度などの特性が本質的に異なるカメラによって取得される。
顔認識に適用されたディープラーニングモデルは、マルチレゾリューションシナリオに対してテストされた場合のパフォーマンスが低下することはすでに文献に示されている。
FERタスクは、異質なソースで取得可能な顔画像を分析し、異なる品質の画像を含むため、そのようなケースにおいても解像度が重要な役割を果たすと期待することは可能である。
このような仮説を起点として,表情認識に携わるモデルに対するマルチレゾリューショントレーニングの利点を実証する。
そこで本稿では,DCNNに対して,幅広い解像度で堅牢な予測を生成するための2段階学習手法であるMAFERを提案する。
MAFERの関連する特徴は、タスクに依存しない、すなわち他の客観的な手法と相補的に使用できることである。
提案手法の有効性を評価するため,公開データセットである \fer{}, \raf{}, \oulu{} について広範な実験を行った。
マルチレゾリューション・コンテキストにおいて、我々のアプローチでは、学習モデルは現在のSotAで改善され、修正解決コンテキストでは同等の結果が報告される。
最後に,我々のモデルの性能を分析し,それらから生成された深い特徴の識別能力の高まりを観察する。
関連論文リスト
- FFAA: Multimodal Large Language Model based Explainable Open-World Face Forgery Analysis Assistant [59.2438504610849]
FFAA: Face Forgery Analysis Assistant(MLLM)とMIDS(Multi-Awer Intelligent Decision System)について紹介する。
提案手法は,ユーザフレンドリで説明可能な結果を提供するだけでなく,従来の手法に比べて精度と堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-08-19T15:15:20Z) - Task-adaptive Q-Face [75.15668556061772]
本稿では,タスク適応型マルチタスク顔分析手法Q-Faceを提案する。
Q-Faceは統合されたモデルで複数の顔分析タスクを同時に実行する。
本手法は,顔表情認識,行動単位検出,顔属性分析,年齢推定,顔ポーズ推定における最先端性能を実現する。
論文 参考訳(メタデータ) (2024-05-15T03:13:11Z) - Dynamic Resolution Guidance for Facial Expression Recognition [2.0456513832600884]
本稿では,表情認識のための動的解像度誘導法(DRGFER)を提案する。
我々のフレームワークは、解像度認識ネットワーク(RRN)とMRAFER(Multi-Resolution Adaptation Facial Expression Recognition Network)の2つの主要コンポーネントから構成されている。
提案したフレームワークは、解像度の変動や表情に対する堅牢性を示し、現実世界のアプリケーションに有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-04-09T15:02:01Z) - FaceXFormer: A Unified Transformer for Facial Analysis [59.94066615853198]
FaceXformerは、さまざまな顔分析タスクのためのエンドツーエンドの統一トランスフォーマーモデルである。
本モデルでは,8つのタスクにまたがる頑健さと一般化性を実証し,画像の「夢中」を効果的に処理する。
論文 参考訳(メタデータ) (2024-03-19T17:58:04Z) - Explainable Multi-View Deep Networks Methodology for Experimental Physics [0.19574002186090492]
物理実験は、X線スキャンや顕微鏡画像などの複数の画像表現を含むことが多い。
深層学習モデルはこれらの実験において教師あり分析に広く利用されている。
マルチビューデータが現れ、それぞれのサンプルは異なる角度、ソース、モダリティからのビューによって記述される。
マルチビューモデルには適切な説明責任が欠如しており、アーキテクチャのため説明が難しい。
論文 参考訳(メタデータ) (2023-08-16T08:13:38Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - LR-to-HR Face Hallucination with an Adversarial Progressive
Attribute-Induced Network [67.64536397027229]
顔の超解像は難しい問題であり、非常に不適切な問題である。
顔の特徴を取り入れたエンドツーエンドのプログレッシブ・ラーニング・フレームワークを提案する。
提案手法は,他の最先端アプローチよりも良好な顔幻覚像が得られることを示す。
論文 参考訳(メタデータ) (2021-09-29T19:50:45Z) - Exploiting Emotional Dependencies with Graph Convolutional Networks for
Facial Expression Recognition [31.40575057347465]
本稿では,視覚における表情認識のためのマルチタスク学習フレームワークを提案する。
MTL設定において、離散認識と連続認識の両方のために共有特徴表現が学習される。
実験の結果,本手法は離散FER上での最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-06-07T10:20:05Z) - A Multi-resolution Approach to Expression Recognition in the Wild [9.118706387430883]
顔認識タスクを解決するためのマルチリゾリューション手法を提案する。
私たちは、しばしば異なる解像度で画像が取得されるという観察を直感的に根拠としています。
我々は、Affect-in-the-Wild 2データセットに基づいてトレーニングされたSqueeze-and-Excitationブロックを備えたResNetのようなアーキテクチャを使用する。
論文 参考訳(メタデータ) (2021-03-09T21:21:02Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。