論文の概要: The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition
- arxiv url: http://arxiv.org/abs/2009.07635v1
- Date: Tue, 15 Sep 2020 09:25:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 05:58:15.466045
- Title: The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition
- Title(参考訳): the facechannel: 表情認識のための高速で激怒するディープニューラルネットワーク
- Authors: Pablo Barros, Nikhil Churamani and Alessandra Sciutti
- Abstract要約: 顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
- 参考スコア(独自算出の注目度): 71.24825724518847
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current state-of-the-art models for automatic Facial Expression Recognition
(FER) are based on very deep neural networks that are effective but rather
expensive to train. Given the dynamic conditions of FER, this characteristic
hinders such models of been used as a general affect recognition. In this
paper, we address this problem by formalizing the FaceChannel, a light-weight
neural network that has much fewer parameters than common deep neural networks.
We introduce an inhibitory layer that helps to shape the learning of facial
features in the last layer of the network and thus improving performance while
reducing the number of trainable parameters. To evaluate our model, we perform
a series of experiments on different benchmark datasets and demonstrate how the
FaceChannel achieves a comparable, if not better, performance to the current
state-of-the-art in FER. Our experiments include cross-dataset analysis, to
estimate how our model behaves on different affective recognition conditions.
We conclude our paper with an analysis of how FaceChannel learns and adapt the
learned facial features towards the different datasets.
- Abstract(参考訳): 顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
FERの動的条件を考えると、この特性は一般的な影響認識として使用されるようなモデルを妨げる。
本稿では、一般的なディープニューラルネットワークよりもパラメータが少ない軽量ニューラルネットワークであるFaceChannelを形式化し、この問題に対処する。
本稿では,ネットワーク最終層における顔特徴の学習を支援する抑制層を導入し,学習可能なパラメータの数を削減しつつ性能を向上させる。
モデルを評価するために、我々は異なるベンチマークデータセットで一連の実験を行い、FaceChannelがFERの現在の最先端技術に匹敵するパフォーマンスを達成しているかを実証した。
我々の実験は、モデルが異なる感情認識条件でどのように振る舞うかを推定するクロスデータセット分析を含む。
結論として,facechannelが学習した顔の特徴を異なるデータセットに適応させる方法について分析した。
関連論文リスト
- Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - Exploiting Emotional Dependencies with Graph Convolutional Networks for
Facial Expression Recognition [31.40575057347465]
本稿では,視覚における表情認識のためのマルチタスク学習フレームワークを提案する。
MTL設定において、離散認識と連続認識の両方のために共有特徴表現が学習される。
実験の結果,本手法は離散FER上での最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-06-07T10:20:05Z) - Facial Emotion Recognition: State of the Art Performance on FER2013 [0.0]
FER2013データセットで最高の単一ネットワーク分類精度を達成しました。
我々のモデルは、追加のトレーニングデータを用いることなく、FER2013上で73.28 %の最先端のシングルネットワーク精度を実現する。
論文 参考訳(メタデータ) (2021-05-08T04:20:53Z) - Facial expression and attributes recognition based on multi-task
learning of lightweight neural networks [9.162936410696409]
顔の識別と顔の属性の分類のための軽量畳み込みニューラルネットワークのマルチタスクトレーニングを検討する。
顔の表情を予測するためには,これらのネットワークを微調整する必要がある。
MobileNet、EfficientNet、RexNetアーキテクチャに基づくいくつかのモデルが提示される。
論文 参考訳(メタデータ) (2021-03-31T14:21:04Z) - Improving DeepFake Detection Using Dynamic Face Augmentation [0.8793721044482612]
ほとんどの公開可能なDeepFake検出データセットには、限られたバリエーションがある。
ディープニューラルネットワークは、DeepFakeコンテンツの操作機能を検出するための学習ではなく、顔の特徴にオーバーフィットする傾向があります。
DeepFake検出を改善するために、CNN(Convolutional Neural Networks)をトレーニングするためのデータ拡張方法であるFace-Cutoutを紹介します。
論文 参考訳(メタデータ) (2021-02-18T20:25:45Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Video-based Facial Expression Recognition using Graph Convolutional
Networks [57.980827038988735]
我々は、ビデオベースの表情認識のための共通のCNN-RNNモデルに、GCN(Graph Convolutional Network)層を導入する。
我々は、CK+、Oulu-CASIA、MMIの3つの広く使われているデータセットと、AFEW8.0の挑戦的なワイルドデータセットについて、本手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-26T07:31:51Z) - The FaceChannelS: Strike of the Sequences for the AffWild 2 Challenge [80.07590100872548]
AffWild2データセットの表情から、私たちの小さなモデルがどのように感情情報を予測できるかを示す。
本稿では、FaceChannelニューラルネットワークの異なるバージョンをベンチマークするもう1つの章を示す。
論文 参考訳(メタデータ) (2020-10-04T12:00:48Z) - The FaceChannel: A Light-weight Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
FER自動化のための現在の最先端モデルは、訓練が難しい非常に深いニューラルネットワークに基づいている。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
私たちは、FaceChannelが、FERの現在の最先端技術と比較して、同等の、たとえそうでなくても、パフォーマンスを実現する方法を示します。
論文 参考訳(メタデータ) (2020-04-17T12:03:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。