論文の概要: Personalization of Affective Models to Enable Neuropsychiatric Digital
Precision Health Interventions: A Feasibility Study
- arxiv url: http://arxiv.org/abs/2311.12812v1
- Date: Thu, 21 Sep 2023 07:16:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 15:47:46.793072
- Title: Personalization of Affective Models to Enable Neuropsychiatric Digital
Precision Health Interventions: A Feasibility Study
- Title(参考訳): 神経心理学的デジタル精密健康介入を可能にする影響モデルのパーソナライズ : 可能性スタディ
- Authors: Ali Kargarandehkordi, Matti Kaisti, Peter Washington
- Abstract要約: 自閉症スペクトラム障害(ASD)に対するモバイルデジタル治療は、しばしば感情認識と誘発を標的としている。
本稿では,モデルパーソナライズの可能性を探り,一人ひとりの感情認識モデルを訓練する。
一連の感情を喚起する被験者の映像データセットであるEmognitionデータセットについて実験を行った。
- 参考スコア(独自算出の注目度): 0.820591242098274
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mobile digital therapeutics for autism spectrum disorder (ASD) often target
emotion recognition and evocation, which is a challenge for children with ASD.
While such mobile applications often use computer vision machine learning (ML)
models to guide the adaptive nature of the digital intervention, a single model
is usually deployed and applied to all children. Here, we explore the potential
of model personalization, or training a single emotion recognition model per
person, to improve the performance of these underlying emotion recognition
models used to guide digital health therapies for children with ASD. We
conducted experiments on the Emognition dataset, a video dataset of human
subjects evoking a series of emotions. For a subset of 10 individuals in the
dataset with a sufficient representation of at least two ground truth emotion
labels, we trained a personalized version of three classical ML models on a set
of 51 features extracted from each video frame. We measured the importance of
each facial feature for all personalized models and observed differing ranked
lists of top features across subjects, motivating the need for model
personalization. We then compared the personalized models against a generalized
model trained using data from all 10 participants. The mean F1-scores achieved
by the personalized models were 90.48%, 92.66%, and 86.40%, respectively. By
contrast, the mean F1-scores reached by non-personalized models trained on
different human subjects and evaluated using the same test set were 88.55%,
91.78%, and 80.42%, respectively. The personalized models outperformed the
generalized models for 7 out of 10 participants. PCA analyses on the remaining
3 participants revealed relatively facial configuration differences between
emotion labels within each subject, suggesting that personalized ML will fail
when the variation among data points within a subjects data is too low.
- Abstract(参考訳): 自閉症スペクトラム障害(ASD)に対するモバイルデジタル治療は、しばしば感情認識と誘発を標的としている。
このようなモバイルアプリケーションは、しばしばコンピュータビジョン機械学習(ML)モデルを使用してデジタル介入の適応性を導くが、通常は1つのモデルがデプロイされ、すべての子供に適用される。
そこで本研究では,asd児のデジタルヘルス療法の指導に使用される感情認識モデルの性能を向上させるために,モデルパーソナライゼーションの可能性や,個人ひとりひとりの感情認識モデルのトレーニングについて検討する。
一連の感情を喚起する被験者の映像データセットであるEmognitionデータセットの実験を行った。
少なくとも2つのグランド・真実の感情ラベルを十分に表現したデータセット内の10人のサブセットに対して、各ビデオフレームから抽出された51の機能セット上で、3つの古典的なmlモデルのパーソナライズされたバージョンをトレーニングした。
本研究は,各顔の特徴が各パーソナライズされたモデルにおいて重要であることを測定し,モデルパーソナライゼーションの必要性を動機づけた。
次に、パーソナライズされたモデルと、10人全員のデータをトレーニングした一般化モデルを比較した。
パーソナライズされたモデルのF1スコアの平均は90.48%、92.66%、86.40%であった。
対照的に、異なる被験者で訓練された非個人モデルで到達した平均F1スコアは88.55%、91.78%、80.42%であった。
パーソナライズされたモデルは10人中7人の一般モデルを上回った。
残りの3名の被験者のpca分析では、各被験者の感情ラベル間の顔構成の差異がみられ、被験者データ内のデータポイント間のばらつきが小さすぎるとパーソナライズmlが失敗することが示唆された。
関連論文リスト
- MEMO-Bench: A Multiple Benchmark for Text-to-Image and Multimodal Large Language Models on Human Emotion Analysis [53.012111671763776]
そこで本研究では、7,145枚の肖像画からなる総合的なベンチマークであるMEMO-Benchを紹介した。
以上の結果から,既存のT2Iモデルは負のモデルよりも肯定的な感情を生成するのに効果的であることが示唆された。
MLLMは人間の感情の識別と認識に一定の効果を示すが、人間のレベルの正確さには欠ける。
論文 参考訳(メタデータ) (2024-11-18T02:09:48Z) - Improving Emotion Recognition Accuracy with Personalized Clustering [0.0]
感情認識は、リアルタイムおよび実生活で動作する高速で離散的で非豪華なシステムで行うべきです。
これらのカスタマイズされたモデルは、外部刺激に対する感情的な反応において類似点を共有する被験者のクラスタに適用できる。
論文 参考訳(メタデータ) (2024-09-23T16:42:36Z) - Evaluating Multiview Object Consistency in Humans and Image Models [68.36073530804296]
我々は、物体の形状に関するゼロショット視覚的推論を必要とする認知科学の実験的設計を活用する。
我々は500人以上の参加者から行動データの35万件の試行を収集した。
次に、一般的な視覚モデルの性能を評価する。
論文 参考訳(メタデータ) (2024-09-09T17:59:13Z) - Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - IGNITE: Individualized GeNeration of Imputations in Time-series
Electronic health records [7.451873794596469]
本研究では、患者動態を学習し、個人の人口動態の特徴や治療に合わせたパーソナライズされた値を生成する新しいディープラーニングモデルを提案する。
提案モデルであるIGNITEは,2段階の注意を付加した条件付き2変分オートエンコーダを用いて,個人に対して欠落した値を生成する。
IGNITEは,データ再構成の欠如やタスク予測において,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-09T07:57:21Z) - A Comparison of Personalized and Generalized Approaches to Emotion
Recognition Using Consumer Wearable Devices: Machine Learning Study [1.0895307583148537]
We developed a convolutional encoder for the three-class emotion classification problem using data from WESAD。
3クラス分類問題では, パーソナライズされたモデルの平均精度は95.06%, F1スコアは91.71であった。
その結果,パーソナライズされた感情認識モデルの研究の必要性が強調された。
論文 参考訳(メタデータ) (2023-08-28T01:21:22Z) - An Open-source Benchmark of Deep Learning Models for Audio-visual
Apparent and Self-reported Personality Recognition [10.59440995582639]
パーソナリティは、人間の日常生活や作業行動の多様さを決定づけ、人間の内外的状態を理解するのに不可欠である。
近年,非言語的音声視覚行動に基づいて,対象者の見かけの個性や自己報告の個性を予測するために,多数の自動パーソナリティコンピューティング手法が開発されている。
一貫性のある実験的な設定の標準ベンチマークがないため、これらのパーソナリティコンピューティングモデルの実際の性能を適切に比較することは不可能であり、再現も困難である。
既存の8つのパーソナリティ・コンピューティング・モデルに対して公平かつ一貫した評価を提供するために,最初の再現可能な音声視覚ベンチマーク・フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T14:40:04Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Multi-modal Affect Analysis using standardized data within subjects in
the Wild [8.05417723395965]
本稿では,表情(EXP)に着目した感情認識手法を提案する。
提案手法は,評価精度とロバスト性を効果的に向上する。
論文 参考訳(メタデータ) (2021-07-07T04:18:28Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。