論文の概要: Complex Facial Expression Recognition Using Deep Knowledge Distillation
of Basic Features
- arxiv url: http://arxiv.org/abs/2308.06197v2
- Date: Sun, 5 Nov 2023 23:34:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 21:27:39.907107
- Title: Complex Facial Expression Recognition Using Deep Knowledge Distillation
of Basic Features
- Title(参考訳): 基本特徴の深い知識蒸留を用いた複雑な顔表情認識
- Authors: Angus Maiden (1), Bahareh Nakisa (1) ((1) Deakin University)
- Abstract要約: 複雑な感情認識は、人間の認知レベル以上にある他のタスクと同じ優れたパフォーマンスを達成した認知タスクである。
本稿では,新しい複合表現クラスを正確に認識可能な,複雑な表情認識のための連続学習手法を提案する。
本手法は,知識蒸留と新しい予測記憶再生により,この関係を生かした。
複雑な表情認識のための継続的な学習の最先端を達成し、74.28%が新しいクラスにおける総合的精度を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Complex emotion recognition is a cognitive task that has so far eluded the
same excellent performance of other tasks that are at or above the level of
human cognition. Emotion recognition through facial expressions is particularly
difficult due to the complexity of emotions expressed by the human face. For a
machine to approach the same level of performance in complex facial expression
recognition as a human, it may need to synthesise knowledge and understand new
concepts in real-time, as humans do. Humans are able to learn new concepts
using only few examples by distilling important information from memories.
Inspired by human cognition and learning, we propose a novel continual learning
method for complex facial expression recognition that can accurately recognise
new compound expression classes using few training samples, by building on and
retaining its knowledge of basic expression classes. In this work, we also use
GradCAM visualisations to demonstrate the relationship between basic and
compound facial expressions. Our method leverages this relationship through
knowledge distillation and a novel Predictive Sorting Memory Replay, to achieve
the current state-of-the-art in continual learning for complex facial
expression recognition, with 74.28% Overall Accuracy on new classes. We also
demonstrate that using continual learning for complex facial expression
recognition achieves far better performance than non-continual learning
methods, improving on state-of-the-art non-continual learning methods by
13.95%. Our work is also the first to apply few-shot learning to complex facial
expression recognition, achieving the state-of-the-art with 100% accuracy using
only a single training sample per class.
- Abstract(参考訳): 複雑な感情認識(complex emotion recognition)は、人間の認識のレベル以上にある他のタスクと同じ優れたパフォーマンスをこれまで明らかにしてきた認知タスクである。
表情による感情認識は、人間の顔によって表現される感情の複雑さのために特に困難である。
機械が人間と同じレベルの複雑な表情認識性能に近づくためには、知識を合成し、人間と同じように、新しい概念をリアルタイムで理解する必要があるかもしれない。
人間は記憶から重要な情報を蒸留することで、わずかな例だけで新しい概念を学ぶことができる。
本稿では,人間の認知と学習に着想を得て,新しい複合表現クラスを少ない訓練サンプルで正確に認識し,基本表現クラス知識を構築・保持できる,複雑な表情認識のための連続学習手法を提案する。
本研究では,GradCAMの視覚的特徴を利用して,表情の基本的特徴と複合的表現の関係を示す。
本手法は, 知識蒸留と新しい予測的ソートメモリリプレイを用いて, 複雑な表情認識のための連続学習における現在の最先端を, 74.28%の精度で達成する。
また、複雑な表情認識に連続学習を用いることで、非連続学習法よりもはるかに優れた性能が得られることを実証し、最先端の非連続学習法を13.95%改善した。
私たちの研究は、複雑な表情認識に数発の学習を適用し、クラスごとに1つのトレーニングサンプルのみを使用して100%の精度で最先端を達成しました。
関連論文リスト
- Assessing the Efficacy of Deep Learning Approaches for Facial Expression Recognition in Individuals with Intellectual Disabilities [0.7124736158080939]
我々は、知的障害者の表情を認識するために、異なるアプローチで12の畳み込みニューラルネットワークを訓練する。
本研究は,ユーザ固有の訓練手法を用いて,この集団内での表情認識の必要性を示唆するものである。
論文 参考訳(メタデータ) (2024-01-22T12:02:40Z) - Leveraging Previous Facial Action Units Knowledge for Emotion
Recognition on Faces [2.4158349218144393]
本稿では,感情認識のための顔行動単位(AU)認識手法を提案する。
この認識はFACS(Facial Action Coding System)に基づいており、機械学習システムによって計算される。
論文 参考訳(メタデータ) (2023-11-20T18:14:53Z) - Revisiting Self-Supervised Contrastive Learning for Facial Expression
Recognition [39.647301516599505]
我々は,自己指導型コントラスト学習の活用を再考し,表現固有の表現を強制するための3つの中核戦略を探求する。
実験の結果,提案手法は最先端の自己教師型学習法よりも優れていた。
論文 参考訳(メタデータ) (2022-10-08T00:04:27Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - SynFace: Face Recognition with Synthetic Data [83.15838126703719]
我々は、ID混在(IM)とドメイン混在(DM)を併用したSynFaceを考案し、パフォーマンスギャップを緩和する。
また、合成顔画像の系統的実験分析を行い、合成データを顔認識に効果的に活用する方法についての知見を提供する。
論文 参考訳(メタデータ) (2021-08-18T03:41:54Z) - I Only Have Eyes for You: The Impact of Masks On Convolutional-Based
Facial Expression Recognition [78.07239208222599]
今回提案したFaceChannelがマスクを持つ人からの表情認識にどのように適応するかを評価します。
また、制約された社会的相互作用シナリオにおける顔の特徴の変化を学習し、組み合わせるためのFaceChannelの本質的な能力を示すために、特定の機能レベルの可視化も行います。
論文 参考訳(メタデータ) (2021-04-16T20:03:30Z) - A Multi-resolution Approach to Expression Recognition in the Wild [9.118706387430883]
顔認識タスクを解決するためのマルチリゾリューション手法を提案する。
私たちは、しばしば異なる解像度で画像が取得されるという観察を直感的に根拠としています。
我々は、Affect-in-the-Wild 2データセットに基づいてトレーニングされたSqueeze-and-Excitationブロックを備えたResNetのようなアーキテクチャを使用する。
論文 参考訳(メタデータ) (2021-03-09T21:21:02Z) - Facial Expressions as a Vulnerability in Face Recognition [73.85525896663371]
本研究では,顔認識システムのセキュリティ脆弱性としての表情バイアスについて検討する。
本稿では,表情バイアスが顔認識技術の性能に与える影響を包括的に分析する。
論文 参考訳(メタデータ) (2020-11-17T18:12:41Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z) - An adversarial learning framework for preserving users' anonymity in
face-based emotion recognition [6.9581841997309475]
本稿では,反復的手順で学習した畳み込みニューラルネットワーク(CNN)アーキテクチャに依存する逆学習フレームワークを提案する。
その結果、提案手法は、感情認識の精度を保ち、顔認証の劣化を抑えるための畳み込み変換を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-01-16T22:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。