論文の概要: Faces of the Mind: Unveiling Mental Health States Through Facial Expressions in 11,427 Adolescents
- arxiv url: http://arxiv.org/abs/2405.20072v1
- Date: Thu, 30 May 2024 14:02:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 14:08:52.136121
- Title: Faces of the Mind: Unveiling Mental Health States Through Facial Expressions in 11,427 Adolescents
- Title(参考訳): 心の顔:11,427人の青年期における顔表情による精神状態の回復
- Authors: Xiao Xu, Keyin Zhou, Yan Zhang, Yang Wang, Fei Wang, Xizhe Zhang,
- Abstract要約: うつ病や不安などの気分障害は、しばしば表情を通して現れる。
11,427人の被験者の顔映像を分析した。
- 参考スコア(独自算出の注目度): 12.51443153354506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mood disorders, including depression and anxiety, often manifest through facial expressions. While previous research has explored the connection between facial features and emotions, machine learning algorithms for estimating mood disorder severity have been hindered by small datasets and limited real-world application. To address this gap, we analyzed facial videos of 11,427 participants, a dataset two orders of magnitude larger than previous studies. This comprehensive collection includes standardized facial expression videos from reading tasks, along with a detailed psychological scale that measures depression, anxiety, and stress. By examining the relationships among these emotional states and employing clustering analysis, we identified distinct subgroups embodying different emotional profiles. We then trained tree-based classifiers and deep learning models to estimate emotional states from facial features. Results indicate that models previously effective on small datasets experienced decreased performance when applied to our large dataset, highlighting the importance of data scale and mitigating overfitting in practical settings. Notably, our study identified subtle shifts in pupil dynamics and gaze orientation as potential markers of mood disorders, providing valuable information on the interaction between facial expressions and mental health. This research marks the first large-scale and comprehensive investigation of facial expressions in the context of mental health, laying the groundwork for future data-driven advancements in this field.
- Abstract(参考訳): うつ病や不安などの気分障害は、しばしば表情を通して現れる。
これまでの研究では、顔の特徴と感情の関連性を検討したが、気分障害の重症度を推定する機械学習アルゴリズムは、小さなデータセットと限られた現実世界のアプリケーションによって妨げられている。
このギャップに対処するため,11,427人の参加者の顔映像を分析した。
この包括的なコレクションには、読解タスクからの標準化された表情ビデオと、うつ病、不安、ストレスを測定する詳細な心理的尺度が含まれている。
これらの感情状態間の関係を調べ、クラスタリング分析を用いて、異なる感情プロファイルを具現化した異なるサブグループを特定した。
次に、顔の特徴から感情状態を推定するために、木に基づく分類器とディープラーニングモデルを訓練した。
結果から,従来は小規模なデータセットに有効であったモデルでは,大規模なデータセットに適用した場合のパフォーマンスが低下し,データスケールの重要性が強調され,現実的な設定における過度な適合が軽減されたことが示唆された。
特に, 気分障害の潜在的な指標として, 瞳運動や視線方向の微妙な変化が認められ, 表情と精神健康の相互作用について貴重な情報を提供することができた。
この研究は、メンタルヘルスの文脈における表情の大規模かつ包括的な研究であり、この分野における将来的なデータ駆動の進歩の基盤となっている。
関連論文リスト
- Leaving Some Facial Features Behind [0.0]
本研究では,Fer2013データセットの顔摂動を用いて,顔の特徴が感情分類にどのように影響するかを検討する。
データに基づいてトレーニングされたモデルは、幸せや驚きといった感情のベースラインと比較して、重要な顔の特徴を除去することで、最大85%の精度低下を経験します。
論文 参考訳(メタデータ) (2024-10-29T02:28:53Z) - Large-scale digital phenotyping: identifying depression and anxiety indicators in a general UK population with over 10,000 participants [2.2909783327197393]
英国在住の一般住民10,129名のデータを横断的に分析した。
参加者は、ウェアラブル(Fitbit)データと、うつ病(PHQ-8)、不安(GAD-7)、ムードに関する自己申告アンケートを、研究アプリを通じて共有した。
気分,年齢,性別,BMI,睡眠パターン,身体活動,心拍数など,うつ病の重症度と不安度との間に有意な関連が認められた。
論文 参考訳(メタデータ) (2024-09-24T16:05:17Z) - Exploring Facial Biomarkers for Depression through Temporal Analysis of Action Units [0.0]
抑うつの有無で分類された被験者の映像データから表情を分析した。
その結果,グループ間の悲しみと幸福に関連するAUの強度に有意な差が認められた。
論文 参考訳(メタデータ) (2024-07-18T17:55:01Z) - EmoScan: Automatic Screening of Depression Symptoms in Romanized Sinhala Tweets [0.0]
この研究は、抑うつのリスクがある個人を特定するために、ロマタイズド・シンハラのソーシャルメディアデータの利用を探求する。
言語パターン、感情、行動の手がかりを分析することにより、抑うつ症状の自動スクリーニングのための機械学習ベースのフレームワークが提示される。
論文 参考訳(メタデータ) (2024-03-28T10:31:09Z) - Measuring Non-Typical Emotions for Mental Health: A Survey of Computational Approaches [57.486040830365646]
ストレスと抑うつは日々のタスクにおけるエンゲージメントに影響を与え、彼らの相互作用を理解する必要性を強調します。
この調査は、ストレス、抑うつ、エンゲージメントを分析する計算手法を同時に探求した最初のものである。
論文 参考訳(メタデータ) (2024-03-09T11:16:09Z) - Dynamic Graph Representation Learning for Depression Screening with
Transformer [13.551342607089184]
ソーシャルメディアプラットフォームは、メンタルヘルスを調査し、精神疾患の事例を検出する研究機会を提供する。
既存の抑うつ検出手法は,特徴工学への依存と時間的要因の考慮の欠如により制約される。
提案するContrastEgoは,各ユーザを動的時間進化型属性グラフ(ego-network)として扱う。
ContrastEgoは、様々な実験環境におけるすべての有効性指標において、最先端の手法を著しく上回っていることを示す。
論文 参考訳(メタデータ) (2023-05-10T20:34:40Z) - Handwriting and Drawing for Depression Detection: A Preliminary Study [53.11777541341063]
精神健康に対する短期的コビデンスの影響は、不安や抑うつ症状の顕著な増加であった。
本研究の目的は、健康な人とうつ病患者を識別するために、オンライン手書き・図面解析という新しいツールを使用することである。
論文 参考訳(メタデータ) (2023-02-05T22:33:49Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - The world seems different in a social context: a neural network analysis
of human experimental data [57.729312306803955]
本研究では,先行・知覚的信号の精度を変化させることで,個人・社会的タスク設定の両方で人間の行動データを再現可能であることを示す。
トレーニングされたネットワークの神経活性化トレースの分析は、情報が個人や社会的条件のネットワークにおいて、根本的に異なる方法でコード化されていることを示す。
論文 参考訳(メタデータ) (2022-03-03T17:19:12Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - Deep Multi-task Learning for Depression Detection and Prediction in
Longitudinal Data [50.02223091927777]
うつ病は最も多い精神疾患の1つであり、世界中の年齢の何百万人もの人々に影響を与えている。
機械学習技術は、早期介入と治療のためのうつ病の自動検出と予測を可能にしている。
本稿では、この課題に対処するために、2つの補助的タスクでうつ病分類を共同最適化する、新しいディープマルチタスクリカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-05T05:14:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。