論文の概要: Training an Emotion Detection Classifier using Frames from a Mobile
Therapeutic Game for Children with Developmental Disorders
- arxiv url: http://arxiv.org/abs/2012.08678v1
- Date: Wed, 16 Dec 2020 00:08:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 02:45:41.394072
- Title: Training an Emotion Detection Classifier using Frames from a Mobile
Therapeutic Game for Children with Developmental Disorders
- Title(参考訳): 発達障害児向け移動療法ゲームにおけるフレームを用いた感情検出分類器の訓練
- Authors: Peter Washington, Haik Kalantarian, Jack Kent, Arman Husic, Aaron
Kline, Emilie Leblanc, Cathy Hou, Cezmi Mutlu, Kaitlyn Dunlap, Yordan Penev,
Maya Varma, Nate Stockham, Brianna Chrisman, Kelley Paskov, Min Woo Sun,
Jae-Yoon Jung, Catalin Voss, Nick Haber, Dennis P. Wall
- Abstract要約: 自動感情分類は、自閉症などの発達的行動条件を持つ子供を含む感情認識に苦しむ人々を助ける可能性がある。
ほとんどのコンピュータビジョン感情モデルは、成人の影響を訓練され、したがって子供の顔にパフォーマンスが低下します。
我々は,児童感情自動検出の性能を高めるために,児童感情データの収集とラベル付けをゲーム化する戦略を考案した。
- 参考スコア(独自算出の注目度): 4.625468113840807
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automated emotion classification could aid those who struggle to recognize
emotion, including children with developmental behavioral conditions such as
autism. However, most computer vision emotion models are trained on adult
affect and therefore underperform on child faces. In this study, we designed a
strategy to gamify the collection and the labeling of child affect data in an
effort to boost the performance of automatic child emotion detection to a level
closer to what will be needed for translational digital healthcare. We
leveraged our therapeutic smartphone game, GuessWhat, which was designed in
large part for children with developmental and behavioral conditions, to gamify
the secure collection of video data of children expressing a variety of
emotions prompted by the game. Through a secure web interface gamifying the
human labeling effort, we gathered and labeled 2,155 videos, 39,968 emotion
frames, and 106,001 labels on all images. With this drastically expanded
pediatric emotion centric database (>30x larger than existing public pediatric
affect datasets), we trained a pediatric emotion classification convolutional
neural network (CNN) classifier of happy, sad, surprised, fearful, angry,
disgust, and neutral expressions in children. The classifier achieved 66.9%
balanced accuracy and 67.4% F1-score on the entirety of CAFE as well as 79.1%
balanced accuracy and 78.0% F1-score on CAFE Subset A, a subset containing at
least 60% human agreement on emotions labels. This performance is at least 10%
higher than all previously published classifiers, the best of which reached
56.% balanced accuracy even when combining "anger" and "disgust" into a single
class. This work validates that mobile games designed for pediatric therapies
can generate high volumes of domain-relevant datasets to train state of the art
classifiers to perform tasks highly relevant to precision health efforts.
- Abstract(参考訳): 自動感情分類は、自閉症などの発達的行動条件を持つ子供を含む感情認識に苦しむ人々を助ける可能性がある。
しかし、ほとんどのコンピュータビジョンの感情モデルは大人の感情に基づいて訓練され、それゆえ子供の顔に過小評価される。
本研究では,自動児童感情検出の性能を,翻訳デジタル医療に必要なレベルに近づけるために,収集と子どものラベル付けがデータに与える影響をゲーミフィケーションする戦略を考案した。
われわれは、発達・行動条件を持つ子供向けに主に設計された治療用スマートフォンゲームGuessWhatを利用して、ゲームによって引き起こされる様々な感情を表現する子供たちのビデオデータのセキュアな収集をゲーミフィケーションした。
人間のラベル付けを楽しませるセキュアなWebインターフェースを通じて、私たちは2,155の動画、39,968の感情フレーム、106,001のラベルを集めました。
この拡張された小児感情中心データベース(既存の公開小児感情中心データベースの30倍)を用いて、我々は小児の幸福、悲しみ、驚き、恐怖、怒り、嫌悪感、中性表現の小児感情分類畳み込みニューラルネットワーク(CNN)分類器を訓練した。
この分類器はカフェ全体で66.9%のバランス付き精度と67.4%のf1-scoreと79.1%のバランス付き精度と78.0%のf1-scoreを達成した。
この性能は、以前のすべての分類器よりも少なくとも10%高く、"anger" と "disgust" を1つのクラスに組み合わせた場合でも、56.%のバランスの取れた精度に達している。
本研究は, 小児科治療用に設計されたモバイルゲームが, 高量のドメイン関連データセットを生成し, 美術分類器の状態を訓練し, 精度の高い健康活動に高い関係のあるタスクを遂行できることを検証する。
関連論文リスト
- Emotion Classification of Children Expressions [0.0]
このモデルは、Squeeze-andExcitationブロック、Convolutional Block Attentionモジュール、ロバストなデータ拡張を備えたモデルの高度な概念を用いて実現されている。
Batch Normalisation, Dropout, SE Attention Mechanism を用いて, 子どもの感情の分類を行ったところ, 89%の精度が得られた。
論文 参考訳(メタデータ) (2024-11-12T10:47:31Z) - Fuzzy Approach for Audio-Video Emotion Recognition in Computer Games for
Children [0.0]
本稿では,音声およびビデオデータの解析を通じて,感情認識のためのファジィアプローチを統合する新しいフレームワークを提案する。
FERデータセットを用いて、ゲーム中に画面から記録された映像フレームの顔の感情を検出する。
ゲーム中に子どもが生み出す音声の感情認識には、CREMA-D, TESS, RAVDESS, Saveeのデータセットを使用する。
論文 参考訳(メタデータ) (2023-08-31T21:22:00Z) - Hybrid Models for Facial Emotion Recognition in Children [0.0]
本稿では,遠隔操作型ロボットによる子どものセラピーの実践において,心理学者を支援するための感情認識技術の利用に焦点を当てた。
Embodied Conversational Agents (ECA) は、プロが社会的課題に直面している子供と繋がる手助けをする仲介ツールである。
論文 参考訳(メタデータ) (2023-08-24T04:20:20Z) - EmoSet: A Large-scale Visual Emotion Dataset with Rich Attributes [53.95428298229396]
リッチ属性を付加した最初の大規模視覚感情データセットであるEmoSetを紹介する。
EmoSetは合計330万枚の画像で構成され、そのうち118,102枚は人間のアノテーションによって慎重にラベル付けされている。
心理学的な研究によって動機付けられ、感情のカテゴリに加えて、各画像には記述可能な感情特性のセットが注釈付けされている。
論文 参考訳(メタデータ) (2023-07-16T06:42:46Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - Adults as Augmentations for Children in Facial Emotion Recognition with
Contrastive Learning [1.0323063834827415]
本研究では,子どもの表情認識におけるデータ不足を克服するために,データ強化に基づくコントラスト学習の適用について検討した。
成人の表情画像と子どもの表情画像とを併用する方法について検討した。
論文 参考訳(メタデータ) (2022-02-10T17:43:11Z) - Training and Profiling a Pediatric Emotion Recognition Classifier on
Mobile Devices [1.996835144477268]
エッジデバイス上での推論用に設計された機械学習モデルの最適化とプロファイルを行った。
当社の最良のモデルであるMobileNet-V2ネットワークは、ImageNetで事前トレーニングされ、65.11%の精度で、CAFEでは64.19%のF1スコアを達成した。
このバランスの取れた精度は、26.62倍のパラメータを含むモデルを使用し、Moto G6では走れなかったCAFEの現在の技術よりもわずか1.79%低い。
論文 参考訳(メタデータ) (2021-08-22T01:48:53Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。