論文の概要: Hybrid Facial Expression Recognition (FER2013) Model for Real-Time
Emotion Classification and Prediction
- arxiv url: http://arxiv.org/abs/2206.09509v1
- Date: Sun, 19 Jun 2022 23:43:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-25 18:55:48.578968
- Title: Hybrid Facial Expression Recognition (FER2013) Model for Real-Time
Emotion Classification and Prediction
- Title(参考訳): リアルタイム感情分類と予測のためのハイブリッド表情認識(FER2013)モデル
- Authors: Ozioma Collins Oguine (1), Kaleab Alamayehu Kinfu (2), Kanyifeechukwu
Jane Oguine (1), Hashim Ibrahim Bisallah (1), Daniel Ofuani (1) ((1)
Department of Computer Science, University of Abuja, Nigeria, (2) Department
of Computer Science, Johns Hopkins University, Baltimore, USA)
- Abstract要約: 本稿では,Deep Convolutional Neural Network(DCNN)とHaar Cascadeディープラーニングアーキテクチャを組み合わせた,表情認識のためのハイブリッドモデルを提案する。
目的は、リアルタイムおよびデジタル顔画像から、考慮された7つの顔感情カテゴリの1つに分類することである。
実験結果から, 最先端実験や研究と比較して, 分類性能は有意に向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial Expression Recognition is a vital research topic in most fields
ranging from artificial intelligence and gaming to Human-Computer Interaction
(HCI) and Psychology. This paper proposes a hybrid model for Facial Expression
recognition, which comprises a Deep Convolutional Neural Network (DCNN) and
Haar Cascade deep learning architectures. The objective is to classify
real-time and digital facial images into one of the seven facial emotion
categories considered. The DCNN employed in this research has more
convolutional layers, ReLU Activation functions, and multiple kernels to
enhance filtering depth and facial feature extraction. In addition, a haar
cascade model was also mutually used to detect facial features in real-time
images and video frames. Grayscale images from the Kaggle repository (FER-2013)
and then exploited Graphics Processing Unit (GPU) computation to expedite the
training and validation process. Pre-processing and data augmentation
techniques are applied to improve training efficiency and classification
performance. The experimental results show a significantly improved
classification performance compared to state-of-the-art (SoTA) experiments and
research. Also, compared to other conventional models, this paper validates
that the proposed architecture is superior in classification performance with
an improvement of up to 6%, totaling up to 70% accuracy, and with less
execution time of 2098.8s.
- Abstract(参考訳): 表情認識は、人工知能やゲーム、人間とコンピュータの相互作用(hci)、心理学など、ほとんどの分野において重要な研究テーマである。
本稿では,deep convolutional neural network(dcnn)とhaar cascade deep learningアーキテクチャを用いた表情認識のためのハイブリッドモデルを提案する。
目的は、リアルタイムおよびデジタル顔画像の7つの感情カテゴリの1つに分類することである。
本研究で採用されているdcnnは,より畳み込み層,reluアクティベーション関数,マルチカーネルを有し,フィルタリング深度と顔特徴抽出を増強する。
さらに、ハールカスケードモデルは、リアルタイム画像やビデオフレームで顔の特徴を検出するためにも相互に使われた。
Kaggleリポジトリからのグレースケールイメージ(FER-2013)とグラフィクス処理ユニット(GPU)計算を利用して、トレーニングと検証プロセスを高速化する。
トレーニング効率と分類性能を向上させるために,前処理およびデータ拡張技術を適用した。
実験の結果, 最先端(SoTA)実験や研究と比較して, 分類性能は有意に向上した。
また,従来のモデルと比較して,提案手法は最大6%の精度向上,最大70%の精度,2098.8秒の実行時間の短縮により,分類性能が優れていることを検証した。
関連論文リスト
- Exploring a Multimodal Fusion-based Deep Learning Network for Detecting Facial Palsy [3.2381492754749632]
本稿では,非構造化データと構造化データを用いて顔の麻痺を検知する多モード融合に基づくディープラーニングモデルを提案する。
我々のモデルはリコールスコアの減少を犠牲にして精度を77.05にわずかに改善した。
論文 参考訳(メタデータ) (2024-05-26T09:16:34Z) - Alleviating Catastrophic Forgetting in Facial Expression Recognition with Emotion-Centered Models [49.3179290313959]
感情中心型生成的リプレイ (ECgr) は, 生成的対向ネットワークから合成画像を統合することで, この課題に対処する。
ECgrは、生成された画像の忠実性を保証するために品質保証アルゴリズムを組み込んでいる。
4つの多様な表情データセットに対する実験結果から,擬似リハーサル法により生成されたイメージを組み込むことで,ターゲットとするデータセットとソースデータセットのトレーニングが促進されることが示された。
論文 参考訳(メタデータ) (2024-04-18T15:28:34Z) - Enhancing Facial Classification and Recognition using 3D Facial Models
and Deep Learning [0.30693357740321775]
分類精度を向上させるために,3次元顔モデルと深層学習手法を統合した。
このアプローチは、100%の個人分類、95.4%の性別分類、83.5%の表現分類の精度で顕著な結果が得られる。
論文 参考訳(メタデータ) (2023-12-08T18:09:29Z) - Multi-Domain Norm-referenced Encoding Enables Data Efficient Transfer
Learning of Facial Expression Recognition [62.997667081978825]
本稿では,表情認識における伝達学習のための生物学的メカニズムを提案する。
提案アーキテクチャでは,人間の脳が,頭部形状の異なる表情を自然に認識する方法について解説する。
本モデルでは, FERGデータセットの分類精度92.15%を極端に高いデータ効率で達成する。
論文 参考訳(メタデータ) (2023-04-05T09:06:30Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - A Novel Enhanced Convolution Neural Network with Extreme Learning
Machine: Facial Emotional Recognition in Psychology Practices [31.159346405039667]
本研究の目的は、トレーニングセッション中の顔の感情認識精度を改善し、処理時間を短縮することである。
提案したCNNEELMモデルは、JSFFE、CK+、FER2013式データセットでトレーニングされている。
シミュレーションの結果,精度と処理時間が大きく向上し,映像解析に適したモデルが得られた。
論文 参考訳(メタデータ) (2022-08-05T02:21:34Z) - Facial Emotion Recognition: State of the Art Performance on FER2013 [0.0]
FER2013データセットで最高の単一ネットワーク分類精度を達成しました。
我々のモデルは、追加のトレーニングデータを用いることなく、FER2013上で73.28 %の最先端のシングルネットワーク精度を実現する。
論文 参考訳(メタデータ) (2021-05-08T04:20:53Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
論文 参考訳(メタデータ) (2020-09-15T09:25:37Z) - Joint Deep Learning of Facial Expression Synthesis and Recognition [97.19528464266824]
顔表情の合成と認識を効果的に行うための新しい統合深層学習法を提案する。
提案手法は, 2段階の学習手順を伴い, まず, 表情の異なる顔画像を生成するために, 表情合成生成対向ネットワーク (FESGAN) を事前訓練する。
実画像と合成画像間のデータバイアスの問題を軽減するために,新しい実データ誘導バックプロパゲーション(RDBP)アルゴリズムを用いたクラス内損失を提案する。
論文 参考訳(メタデータ) (2020-02-06T10:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。