論文の概要: Improved Digital Therapy for Developmental Pediatrics Using Domain-Specific Artificial Intelligence: Machine Learning Study
- arxiv url: http://arxiv.org/abs/2012.08678v2
- Date: Mon, 3 Jun 2024 22:06:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 05:08:03.924482
- Title: Improved Digital Therapy for Developmental Pediatrics Using Domain-Specific Artificial Intelligence: Machine Learning Study
- Title(参考訳): ドメイン特化人工知能を用いた発達小児のデジタル治療の改善 : 機械学習による研究
- Authors: Peter Washington, Haik Kalantarian, John Kent, Arman Husic, Aaron Kline, Emilie Leblanc, Cathy Hou, Onur Cezmi Mutlu, Kaitlyn Dunlap, Yordan Penev, Maya Varma, Nate Tyler Stockham, Brianna Chrisman, Kelley Paskov, Min Woo Sun, Jae-Yoon Jung, Catalin Voss, Nick Haber, Dennis Paul Wall,
- Abstract要約: 自動的な感情分類は、自閉症のような発達的な行動状態の子供を含む感情を認識するのに苦労する人々を助けることができる。
ほとんどのコンピュータビジョンの感情認識モデルは成人の感情に基づいて訓練されているため、子供の顔に適用された場合、性能は低下する。
本研究では,児童感情認識モデルの性能を高めるために,児童感情強調画像の収集とラベル付けをゲーミフィケーションする戦略を考案した。
- 参考スコア(独自算出の注目度): 5.258326585054865
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Background: Automated emotion classification could aid those who struggle to recognize emotions, including children with developmental behavioral conditions such as autism. However, most computer vision emotion recognition models are trained on adult emotion and therefore underperform when applied to child faces. Objective: We designed a strategy to gamify the collection and labeling of child emotion-enriched images to boost the performance of automatic child emotion recognition models to a level closer to what will be needed for digital health care approaches. Methods: We leveraged our prototype therapeutic smartphone game, GuessWhat, which was designed in large part for children with developmental and behavioral conditions, to gamify the secure collection of video data of children expressing a variety of emotions prompted by the game. Independently, we created a secure web interface to gamify the human labeling effort, called HollywoodSquares, tailored for use by any qualified labeler. We gathered and labeled 2155 videos, 39,968 emotion frames, and 106,001 labels on all images. With this drastically expanded pediatric emotion-centric database (>30 times larger than existing public pediatric emotion data sets), we trained a convolutional neural network (CNN) computer vision classifier of happy, sad, surprised, fearful, angry, disgust, and neutral expressions evoked by children. Results: The classifier achieved a 66.9% balanced accuracy and 67.4% F1-score on the entirety of the Child Affective Facial Expression (CAFE) as well as a 79.1% balanced accuracy and 78% F1-score on CAFE Subset A, a subset containing at least 60% human agreement on emotions labels. This performance is at least 10% higher than all previously developed classifiers evaluated against CAFE, the best of which reached a 56% balanced accuracy even when combining "anger" and "disgust" into a single class.
- Abstract(参考訳): 背景: 自動感情分類は、自閉症などの発達的行動状態を持つ子供を含む感情の認識に苦慮する人々を支援する。
しかし、ほとんどのコンピュータビジョンの感情認識モデルは大人の感情に基づいて訓練されているため、子供の顔に適用された場合、性能は低下する。
目的:我々は,児童の感情に富んだ画像の収集とラベル付けをゲーミフィケーションし,児童の感情自動認識モデルの性能を,デジタル医療のアプローチに必要なレベルに近づけるための戦略を考案した。
方法: 発達的, 行動的条件の子ども向けに設計されたスマートフォンゲームGuessWhatを, ゲームによって引き起こされる様々な感情を表現した子どものビデオデータのセキュアな収集に活用した。
独立して、私たちはHorwoodSquaresと呼ばれる人間のラベル付け作業をゲーミフィケーションするためのセキュアなWebインターフェースを作成しました。
私たちは2155の動画、39,968の感情フレーム、106,001のラベルをすべての画像に集めてラベル付けしました。
この拡張された小児感情中心データベース(既存の一般の小児感情データセットの30倍)を用いて、我々は、子供によって誘発される幸せ、悲しみ、驚き、恐怖、怒り、嫌悪感、中立表現の畳み込みニューラルネットワーク(CNN)コンピュータビジョン分類器を訓練した。
結果: この分類器の精度は66.9%, 顔表情全体のF1スコア67.4%, バランスの取れた精度79.1%, CAFEサブセットAではF1スコア78%であった。
この性能は、CAFEに対して評価されたすべての開発済みの分類器よりも少なくとも10%高く、最も優れたものは、"anger"と"disgust"を1つのクラスに組み合わせた場合でも、56%のバランスの取れた精度に達した。
関連論文リスト
- Emotion Classification of Children Expressions [0.0]
このモデルは、Squeeze-andExcitationブロック、Convolutional Block Attentionモジュール、ロバストなデータ拡張を備えたモデルの高度な概念を用いて実現されている。
Batch Normalisation, Dropout, SE Attention Mechanism を用いて, 子どもの感情の分類を行ったところ, 89%の精度が得られた。
論文 参考訳(メタデータ) (2024-11-12T10:47:31Z) - Fuzzy Approach for Audio-Video Emotion Recognition in Computer Games for
Children [0.0]
本稿では,音声およびビデオデータの解析を通じて,感情認識のためのファジィアプローチを統合する新しいフレームワークを提案する。
FERデータセットを用いて、ゲーム中に画面から記録された映像フレームの顔の感情を検出する。
ゲーム中に子どもが生み出す音声の感情認識には、CREMA-D, TESS, RAVDESS, Saveeのデータセットを使用する。
論文 参考訳(メタデータ) (2023-08-31T21:22:00Z) - Hybrid Models for Facial Emotion Recognition in Children [0.0]
本稿では,遠隔操作型ロボットによる子どものセラピーの実践において,心理学者を支援するための感情認識技術の利用に焦点を当てた。
Embodied Conversational Agents (ECA) は、プロが社会的課題に直面している子供と繋がる手助けをする仲介ツールである。
論文 参考訳(メタデータ) (2023-08-24T04:20:20Z) - EmoSet: A Large-scale Visual Emotion Dataset with Rich Attributes [53.95428298229396]
リッチ属性を付加した最初の大規模視覚感情データセットであるEmoSetを紹介する。
EmoSetは合計330万枚の画像で構成され、そのうち118,102枚は人間のアノテーションによって慎重にラベル付けされている。
心理学的な研究によって動機付けられ、感情のカテゴリに加えて、各画像には記述可能な感情特性のセットが注釈付けされている。
論文 参考訳(メタデータ) (2023-07-16T06:42:46Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - Adults as Augmentations for Children in Facial Emotion Recognition with
Contrastive Learning [1.0323063834827415]
本研究では,子どもの表情認識におけるデータ不足を克服するために,データ強化に基づくコントラスト学習の適用について検討した。
成人の表情画像と子どもの表情画像とを併用する方法について検討した。
論文 参考訳(メタデータ) (2022-02-10T17:43:11Z) - Training and Profiling a Pediatric Emotion Recognition Classifier on
Mobile Devices [1.996835144477268]
エッジデバイス上での推論用に設計された機械学習モデルの最適化とプロファイルを行った。
当社の最良のモデルであるMobileNet-V2ネットワークは、ImageNetで事前トレーニングされ、65.11%の精度で、CAFEでは64.19%のF1スコアを達成した。
このバランスの取れた精度は、26.62倍のパラメータを含むモデルを使用し、Moto G6では走れなかったCAFEの現在の技術よりもわずか1.79%低い。
論文 参考訳(メタデータ) (2021-08-22T01:48:53Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。