論文の概要: A Multi-resolution Approach to Expression Recognition in the Wild
- arxiv url: http://arxiv.org/abs/2103.05723v1
- Date: Tue, 9 Mar 2021 21:21:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 15:07:37.886305
- Title: A Multi-resolution Approach to Expression Recognition in the Wild
- Title(参考訳): 野生における表現認識のための多解法
- Authors: Fabio Valerio Massoli, Donato Cafarelli, Giuseppe Amato, Fabrizio
Falchi
- Abstract要約: 顔認識タスクを解決するためのマルチリゾリューション手法を提案する。
私たちは、しばしば異なる解像度で画像が取得されるという観察を直感的に根拠としています。
我々は、Affect-in-the-Wild 2データセットに基づいてトレーニングされたSqueeze-and-Excitationブロックを備えたResNetのようなアーキテクチャを使用する。
- 参考スコア(独自算出の注目度): 9.118706387430883
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Facial expressions play a fundamental role in human communication. Indeed,
they typically reveal the real emotional status of people beyond the spoken
language. Moreover, the comprehension of human affect based on visual patterns
is a key ingredient for any human-machine interaction system and, for such
reasons, the task of Facial Expression Recognition (FER) draws both scientific
and industrial interest. In the recent years, Deep Learning techniques reached
very high performance on FER by exploiting different architectures and learning
paradigms. In such a context, we propose a multi-resolution approach to solve
the FER task. We ground our intuition on the observation that often faces
images are acquired at different resolutions. Thus, directly considering such
property while training a model can help achieve higher performance on
recognizing facial expressions. To our aim, we use a ResNet-like architecture,
equipped with Squeeze-and-Excitation blocks, trained on the Affect-in-the-Wild
2 dataset. Not being available a test set, we conduct tests and models
selection by employing the validation set only on which we achieve more than
90\% accuracy on classifying the seven expressions that the dataset comprises.
- Abstract(参考訳): 顔表現は人間のコミュニケーションにおいて基本的な役割を担います。
実際、彼らは通常、話し言葉以外の人々の真の感情状態を明らかにする。
さらに、視覚的パターンに基づく人間の感情の理解は、人間と機械の相互作用システムにとって重要な要素であり、このような理由から、表情認識(FER)の課題は科学と産業の両方の関心を惹きつける。
近年、Deep Learningの技術は、異なるアーキテクチャと学習パラダイムを利用して、FERで非常に高いパフォーマンスを達成しました。
このような状況下では、FERタスクを解決するためのマルチリゾリューションアプローチを提案する。
私たちは、しばしば異なる解像度で画像が取得されるという観察を直感的に根拠としています。
したがって、モデルをトレーニングしながらその特性を直接考慮することで、表情認識において高いパフォーマンスを達成することができる。
我々は、Affect-in-the-Wild 2データセットに基づいてトレーニングされたSqueeze-and-Excitationブロックを備えたResNetのようなアーキテクチャを使用する。
テストセットが利用できないため、データセットを構成する7つの表現の分類において90%以上の精度を達成できるバリデーションセットのみを使用して、テストとモデル選択を行います。
関連論文リスト
- Exploring Large-scale Unlabeled Faces to Enhance Facial Expression
Recognition [12.677143408225167]
本研究では、ラベルのない顔データを用いて表現認識モデルを効果的に訓練する半教師付き学習フレームワークを提案する。
本手法では,顔認識データを完全に活用するために,信頼度を適応的に調整できる動的しきい値モジュールを用いる。
ABAW5 EXPRタスクでは,オフィシャル検証セットにおいて優れた結果を得た。
論文 参考訳(メタデータ) (2023-03-15T13:43:06Z) - Learning Diversified Feature Representations for Facial Expression
Recognition in the Wild [97.14064057840089]
本稿では,CNN層が抽出した顔表情認識アーキテクチャの特徴を多様化する機構を提案する。
AffectNet,FER+,RAF-DBの3つの顔表情認識実験の結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-10-17T19:25:28Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Exploiting Emotional Dependencies with Graph Convolutional Networks for
Facial Expression Recognition [31.40575057347465]
本稿では,視覚における表情認識のためのマルチタスク学習フレームワークを提案する。
MTL設定において、離散認識と連続認識の両方のために共有特徴表現が学習される。
実験の結果,本手法は離散FER上での最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-06-07T10:20:05Z) - MAFER: a Multi-resolution Approach to Facial Expression Recognition [9.878384185493623]
そこで本稿では,表情認識に携わる深層学習モデルを訓練するための2段階学習手法であるMAFERを提案する。
MAFERの関連する特徴は、タスクに依存しない、すなわち、他の客観的関連技術に補完的に使用できることである。
論文 参考訳(メタデータ) (2021-05-06T07:26:58Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。