論文の概要: Emotion Classification of Children Expressions
- arxiv url: http://arxiv.org/abs/2411.07708v1
- Date: Tue, 12 Nov 2024 10:47:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:21:16.909395
- Title: Emotion Classification of Children Expressions
- Title(参考訳): 子どもの表情の感情分類
- Authors: Sanchayan Vivekananthan,
- Abstract要約: このモデルは、Squeeze-andExcitationブロック、Convolutional Block Attentionモジュール、ロバストなデータ拡張を備えたモデルの高度な概念を用いて実現されている。
Batch Normalisation, Dropout, SE Attention Mechanism を用いて, 子どもの感情の分類を行ったところ, 89%の精度が得られた。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper proposes a process for a classification model for the facial expressions. The proposed process would aid in specific categorisation of children's emotions from 2 emotions namely 'Happy' and 'Sad'. Since the existing emotion recognition systems algorithms primarily train on adult faces, the model developed is achieved by using advanced concepts of models with Squeeze-andExcitation blocks, Convolutional Block Attention modules, and robust data augmentation. Stable Diffusion image synthesis was used for expanding and diversifying the data set generating realistic and various training samples. The model designed using Batch Normalisation, Dropout, and SE Attention mechanisms for the classification of children's emotions achieved an accuracy rate of 89\% due to these methods improving the precision of emotion recognition in children. The relative importance of this issue is raised in this study with an emphasis on the call for a more specific model in emotion detection systems for the young generation with specific direction on how the young people can be assisted to manage emotions while online.
- Abstract(参考訳): 本稿では,表情の分類モデルを提案する。
提案手法は,「ハッピー」と「サッド」という2つの感情から,子どもの感情を具体的に分類する上で有効である。
既存の感情認識システムは、主に大人の顔を訓練するので、Squeeze-andExcitationブロック、Convolutional Block Attentionモジュール、堅牢なデータ拡張といった高度な概念を用いて、モデルを開発した。
安定拡散画像合成は、現実的で多様なトレーニングサンプルを生成するデータセットの拡大と多様化に使用された。
Batch Normalization, Dropout, SE Attention Mechanism を用いて, 子どもの感情の分類に用いたモデルは, 子どもの感情認識の精度を向上させるため, 99%の精度を達成できた。
本研究は,若年層の感情検出システムにおいて,若者がオンライン上での感情管理を支援する方法について,より具体的なモデルを求めることに焦点を当てて,この問題の相対的重要性を提起するものである。
関連論文リスト
- Leaving Some Facial Features Behind [0.0]
本研究では,Fer2013データセットの顔摂動を用いて,顔の特徴が感情分類にどのように影響するかを検討する。
データに基づいてトレーニングされたモデルは、幸せや驚きといった感情のベースラインと比較して、重要な顔の特徴を除去することで、最大85%の精度低下を経験します。
論文 参考訳(メタデータ) (2024-10-29T02:28:53Z) - Generative Technology for Human Emotion Recognition: A Scope Review [11.578408396744237]
本調査は,2024年6月までに320以上の研究論文を総合的に分析し,既存の文献のギャップを埋めることを目的としている。
異なる生成モデルと一般的に使用されるデータセットの数学的原理を導入する。
様々なモダリティに基づいて、生成技術がどのように感情認識に対処するかを詳細に分析する。
論文 参考訳(メタデータ) (2024-07-04T05:22:55Z) - Implicit Design Choices and Their Impact on Emotion Recognition Model
Development and Evaluation [5.534160116442057]
感情の主観性は、正確で堅牢な計算モデルを開発する上で大きな課題を生じさせる。
この論文は、多様なデータセットの収集から始まる感情認識の批判的な側面を調べる。
非表現的トレーニングデータの課題に対処するため、この研究はマルチモーダルストレス感情データセットを収集する。
論文 参考訳(メタデータ) (2023-09-06T02:45:42Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Fine-Grained Emotion Prediction by Modeling Emotion Definitions [26.098917459551167]
本研究では,感情定義モデルを用いて,テキスト中の感情の微粒化を予測するための新しいフレームワークを提案する。
我々のモデルは、詳細な感情データセットGoEmotionsの既存の最先端よりも優れています。
論文 参考訳(メタデータ) (2021-07-26T12:11:18Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Improved Digital Therapy for Developmental Pediatrics Using Domain-Specific Artificial Intelligence: Machine Learning Study [5.258326585054865]
自動的な感情分類は、自閉症のような発達的な行動状態の子供を含む感情を認識するのに苦労する人々を助けることができる。
ほとんどのコンピュータビジョンの感情認識モデルは成人の感情に基づいて訓練されているため、子供の顔に適用された場合、性能は低下する。
本研究では,児童感情認識モデルの性能を高めるために,児童感情強調画像の収集とラベル付けをゲーミフィケーションする戦略を考案した。
論文 参考訳(メタデータ) (2020-12-16T00:08:51Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - Facial Expression Editing with Continuous Emotion Labels [76.36392210528105]
深層生成モデルは、自動表情編集の分野で素晴らしい成果を上げている。
連続した2次元の感情ラベルに従って顔画像の表情を操作できるモデルを提案する。
論文 参考訳(メタデータ) (2020-06-22T13:03:02Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。