論文の概要: Facial expression and attributes recognition based on multi-task
learning of lightweight neural networks
- arxiv url: http://arxiv.org/abs/2103.17107v1
- Date: Wed, 31 Mar 2021 14:21:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-04-01 14:30:36.985144
- Title: Facial expression and attributes recognition based on multi-task
learning of lightweight neural networks
- Title(参考訳): 軽量ニューラルネットワークのマルチタスク学習に基づく顔表情と属性認識
- Authors: Andrey V. Savchenko
- Abstract要約: 顔の識別と顔の属性の分類のための軽量畳み込みニューラルネットワークのマルチタスクトレーニングを検討する。
顔の表情を予測するためには,これらのネットワークを微調整する必要がある。
MobileNet、EfficientNet、RexNetアーキテクチャに基づくいくつかのモデルが提示される。
- 参考スコア(独自算出の注目度): 9.162936410696409
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we examine the multi-task training of lightweight
convolutional neural networks for face identification and classification of
facial attributes (age, gender, ethnicity) trained on cropped faces without
margins. It is shown that it is still necessary to fine-tune these networks in
order to predict facial expressions. Several models are presented based on
MobileNet, EfficientNet and RexNet architectures. It was experimentally
demonstrated that our models are characterized by the state-of-the-art emotion
classification accuracy on AffectNet dataset and near state-of-the-art results
in age, gender and race recognition for UTKFace dataset. Moreover, it is shown
that the usage of our neural network as a feature extractor of facial regions
in video frames and concatenation of several statistical functions (mean, max,
etc.) leads to 4.5\% higher accuracy than the previously known state-of-the-art
single models for AFEW and VGAF datasets from the EmotiW challenges. The models
and source code are publicly available at
https://github.com/HSE-asavchenko/face-emotion-recognition.
- Abstract(参考訳): 本稿では, 顔の特徴(年齢, 性別, 民族性)の識別と分類を目的とした, 軽量畳み込みニューラルネットワークのマルチタスクトレーニングについて検討する。
顔の表情を予測するためには,これらのネットワークを微調整する必要がある。
MobileNet、EfficientNet、RexNetアーキテクチャに基づくいくつかのモデルが提示される。
AffectNetデータセットの最先端感情分類精度と,UTKFaceデータセットの年齢,性別,人種認識における最先端結果の特徴を実験的に明らかにした。
さらに,ビデオフレームにおける顔領域の特徴抽出器としてのニューラルネットワークの利用と,いくつかの統計関数(平均,最大,等)の連結が示された。
EmotiWの課題から、AFEWとVGAFデータセットの既知の最先端シングルモデルよりも4.5\%精度が向上する。
モデルとソースコードはhttps://github.com/HSE-asavchenko/face-emotion-recognitionで公開されている。
関連論文リスト
- SwinFace: A Multi-task Transformer for Face Recognition, Expression
Recognition, Age Estimation and Attribute Estimation [60.94239810407917]
本論文では,単一スウィントランスを用いた顔認識,表情認識,年齢推定,顔属性推定のための多目的アルゴリズムを提案する。
複数のタスク間の競合に対処するため、マルチレベルチャネル注意(MLCA)モジュールをタスク固有の分析に統合する。
実験の結果,提案したモデルでは顔の理解が良く,全てのタスクにおいて優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-08-22T15:38:39Z) - Research on facial expression recognition based on Multimodal data
fusion and neural network [2.5431493111705943]
このアルゴリズムはマルチモーダルデータに基づいており、顔画像、画像の方向勾配のヒストグラム、顔のランドマークを入力とする。
実験結果から, マルチモーダルデータの相補性により, 精度, 堅牢性, 検出速度が大幅に向上したことがわかった。
論文 参考訳(メタデータ) (2021-09-26T23:45:40Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - Exploiting Emotional Dependencies with Graph Convolutional Networks for
Facial Expression Recognition [31.40575057347465]
本稿では,視覚における表情認識のためのマルチタスク学習フレームワークを提案する。
MTL設定において、離散認識と連続認識の両方のために共有特徴表現が学習される。
実験の結果,本手法は離散FER上での最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-06-07T10:20:05Z) - Landmark-Aware and Part-based Ensemble Transfer Learning Network for
Facial Expression Recognition from Static images [0.5156484100374059]
パーツベースのエンサンブルトランスファーラーニングネットワークは、人間の表情認識をモデル化します。
5つのサブネットワークで構成され、各サブネットワークは顔ランドマークの5つのサブセットのうちの1つから転送学習を行う。
リアルタイムデプロイメントの計算効率を保証するために、わずか3.28ドルのFLOPSが106ドルである。
論文 参考訳(メタデータ) (2021-04-22T18:38:33Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Video-based Facial Expression Recognition using Graph Convolutional
Networks [57.980827038988735]
我々は、ビデオベースの表情認識のための共通のCNN-RNNモデルに、GCN(Graph Convolutional Network)層を導入する。
我々は、CK+、Oulu-CASIA、MMIの3つの広く使われているデータセットと、AFEW8.0の挑戦的なワイルドデータセットについて、本手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-26T07:31:51Z) - The FaceChannelS: Strike of the Sequences for the AffWild 2 Challenge [80.07590100872548]
AffWild2データセットの表情から、私たちの小さなモデルがどのように感情情報を予測できるかを示す。
本稿では、FaceChannelニューラルネットワークの異なるバージョンをベンチマークするもう1つの章を示す。
論文 参考訳(メタデータ) (2020-10-04T12:00:48Z) - The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
論文 参考訳(メタデータ) (2020-09-15T09:25:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。