論文の概要: Deep Convolutional Neural Network Based Facial Expression Recognition in
the Wild
- arxiv url: http://arxiv.org/abs/2010.01301v1
- Date: Sat, 3 Oct 2020 08:17:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 09:09:43.968788
- Title: Deep Convolutional Neural Network Based Facial Expression Recognition in
the Wild
- Title(参考訳): 深部畳み込みニューラルネットワークを用いた野生における表情認識
- Authors: Hafiq Anas, Bacha Rehman, Wee Hong Ong
- Abstract要約: 我々は、提案した深部畳み込みニューラルネットワーク(CNN)モデルを用いて、与えられたデータセット上で自動表情認識(AFER)を行う。
提案モデルの精度は50.77%,F1スコアは29.16%である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the proposed methodology, data used and the results of
our participation in the ChallengeTrack 2 (Expr Challenge Track) of the
Affective Behavior Analysis in-the-wild (ABAW) Competition 2020. In this
competition, we have used a proposed deep convolutional neural network (CNN)
model to perform automatic facial expression recognition (AFER) on the given
dataset. Our proposed model has achieved an accuracy of 50.77% and an F1 score
of 29.16% on the validation set.
- Abstract(参考訳): 本稿では、ABAW(Affective Behavior Analysis in-the-wild)コンペティション2020のChallengeTrack 2(Expr Challenge Track)に参加する際の方法論、使用データ、および結果について述べる。
このコンペティションでは,提案する深層畳み込みニューラルネットワーク(cnn)モデルを用いて,与えられたデータセット上で自動表情認識(afer)を行う。
提案モデルは,検証セットにおいて,精度50.77%,f1スコア29.16%を達成している。
関連論文リスト
- Exploring Facial Expression Recognition through Semi-Supervised Pretraining and Temporal Modeling [8.809586885539002]
本稿では,第6回ABAW(Affective Behavior Analysis in-the-Wild)コンペティションについて述べる。
第6回ABAWコンペティションでは,オフィシャル検証セットにおいて優れた結果を得た。
論文 参考訳(メタデータ) (2024-03-18T16:36:54Z) - Learning Diversified Feature Representations for Facial Expression
Recognition in the Wild [97.14064057840089]
本稿では,CNN層が抽出した顔表情認識アーキテクチャの特徴を多様化する機構を提案する。
AffectNet,FER+,RAF-DBの3つの顔表情認識実験の結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-10-17T19:25:28Z) - Spatial and Temporal Networks for Facial Expression Recognition in the
Wild Videos [14.760435737320744]
本稿では,ABAW(Affective Behavior Analysis in-the-Wild)コンペティション2021の7つの基本的表現分類法について述べる。
我々のアンサンブルモデルではF1は0.4133、精度は0.6216、最終的な測定値は0.4821であった。
論文 参考訳(メタデータ) (2021-07-12T01:41:23Z) - Two-Stream Consensus Network: Submission to HACS Challenge 2021
Weakly-Supervised Learning Track [78.64815984927425]
弱い監督による時間的行動ローカライゼーションの目標は、ビデオの興味ある動作を時間的に特定し、分類することである。
この課題では,2ストリームコンセンサスネットワーク(TSCN)を主要なフレームワークとして採用しています。
この課題では,本手法が今後の学術研究のベースラインとなることを期待して,第2位にランクインした。
論文 参考訳(メタデータ) (2021-06-21T03:36:36Z) - Technical Report for Valence-Arousal Estimation on Affwild2 Dataset [0.0]
abaw fg-2020 コンペティションにおけるvalence-arousal estimation challenge に取り組む。
マイクロモーションとマクロモーションの情報を得るために、MIMAMO Net quoteeng 2020mimamoモデルを使用します。
論文 参考訳(メタデータ) (2021-05-04T14:00:07Z) - Facial expression and attributes recognition based on multi-task
learning of lightweight neural networks [9.162936410696409]
顔の識別と顔の属性の分類のための軽量畳み込みニューラルネットワークのマルチタスクトレーニングを検討する。
顔の表情を予測するためには,これらのネットワークを微調整する必要がある。
MobileNet、EfficientNet、RexNetアーキテクチャに基づくいくつかのモデルが提示される。
論文 参考訳(メタデータ) (2021-03-31T14:21:04Z) - Expression Recognition Analysis in the Wild [9.878384185493623]
最先端手法に基づく表情認識法の詳細と実験結果について報告する。
よく知られているvggface2データセットで事前トレーニングされたsenetディープラーニングアーキテクチャを微調整した。
また,本手法の有効性を評価するためには,ABAW(Affective Behavior Analysis in-the-wild)コンペティションも必要である。
論文 参考訳(メタデータ) (2021-01-22T17:28:31Z) - The FaceChannelS: Strike of the Sequences for the AffWild 2 Challenge [80.07590100872548]
AffWild2データセットの表情から、私たちの小さなモデルがどのように感情情報を予測できるかを示す。
本稿では、FaceChannelニューラルネットワークの異なるバージョンをベンチマークするもう1つの章を示す。
論文 参考訳(メタデータ) (2020-10-04T12:00:48Z) - The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
論文 参考訳(メタデータ) (2020-09-15T09:25:37Z) - The FaceChannel: A Light-weight Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
FER自動化のための現在の最先端モデルは、訓練が難しい非常に深いニューラルネットワークに基づいている。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
私たちは、FaceChannelが、FERの現在の最先端技術と比較して、同等の、たとえそうでなくても、パフォーマンスを実現する方法を示します。
論文 参考訳(メタデータ) (2020-04-17T12:03:14Z) - Suppressing Uncertainties for Large-Scale Facial Expression Recognition [81.51495681011404]
本稿では,不確実性を効果的に抑制し,深層ネットワークが不確実な顔画像に過度に収まらないような,シンプルで効率的なセルフキュアネットワーク(SCN)を提案する。
公開ベンチマークの結果、我々のSCNは現在の最先端メソッドよりも、RAF-DBで textbf88.14%、AffectNetで textbf60.23%、FERPlusで textbf89.35% を上回りました。
論文 参考訳(メタデータ) (2020-02-24T17:24:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。