論文の概要: AnxietyFaceTrack: A Smartphone-Based Non-Intrusive Approach for Detecting Social Anxiety Using Facial Features
- arxiv url: http://arxiv.org/abs/2502.16106v1
- Date: Sat, 22 Feb 2025 06:01:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:59:41.231768
- Title: AnxietyFaceTrack: A Smartphone-Based Non-Intrusive Approach for Detecting Social Anxiety Using Facial Features
- Title(参考訳): AnxietyFaceTrack: 顔の特徴を用いた社会的不安検出のためのスマートフォンによる非侵入的アプローチ
- Authors: Nilesh Kumar Sahu, Snehil Gupta, Haroon R Lone,
- Abstract要約: 社会的不安障害(英語版) (SAD) は広範な精神疾患であるが、客観的マーカーの欠如はタイムリーな検出と介入を妨げる。
これまでの研究では、構造化活動におけるSADの行動マーカーと非言語マーカーに焦点が当てられていた。
本稿では、顔画像分析を利用して、未ステージの社会環境における不安を検出するAnxietyFaceTrackを提案する。
- 参考スコア(独自算出の注目度): 0.028251406225581324
- License:
- Abstract: Social Anxiety Disorder (SAD) is a widespread mental health condition, yet its lack of objective markers hinders timely detection and intervention. While previous research has focused on behavioral and non-verbal markers of SAD in structured activities (e.g., speeches or interviews), these settings fail to replicate real-world, unstructured social interactions fully. Identifying non-verbal markers in naturalistic, unstaged environments is essential for developing ubiquitous and non-intrusive monitoring solutions. To address this gap, we present AnxietyFaceTrack, a study leveraging facial video analysis to detect anxiety in unstaged social settings. A cohort of 91 participants engaged in a social setting with unfamiliar individuals and their facial videos were recorded using a low-cost smartphone camera. We examined facial features, including eye movements, head position, facial landmarks, and facial action units, and used self-reported survey data to establish ground truth for multiclass (anxious, neutral, non-anxious) and binary (e.g., anxious vs. neutral) classifications. Our results demonstrate that a Random Forest classifier trained on the top 20% of features achieved the highest accuracy of 91.0% for multiclass classification and an average accuracy of 92.33% across binary classifications. Notably, head position and facial landmarks yielded the best performance for individual facial regions, achieving 85.0% and 88.0% accuracy, respectively, in multiclass classification, and 89.66% and 91.0% accuracy, respectively, across binary classifications. This study introduces a non-intrusive, cost-effective solution that can be seamlessly integrated into everyday smartphones for continuous anxiety monitoring, offering a promising pathway for early detection and intervention.
- Abstract(参考訳): 社会的不安障害(英語版) (SAD) は広範な精神疾患であるが、客観的マーカーの欠如はタイムリーな検出と介入を妨げる。
これまでの研究では、構造化活動(例えば、スピーチやインタビュー)におけるSADの行動的および非言語的マーカーに焦点を合わせてきたが、これらの設定は実世界の非構造的社会的相互作用を完全に再現することができない。
自然主義的・非段階的環境における非言語マーカーの同定は、ユビキタスで非侵襲的なモニタリングソリューションの開発に不可欠である。
このギャップに対処するために、未段階の社会的設定における不安を検出するために、顔画像分析を利用したAnxietyFaceTrackを提案する。
被写体91名からなるコホートが, スマートフォンカメラを用いて, 身近な人とのソーシャル・セッティングを行い, 顔の映像を撮影した。
眼球運動,頭部位置,顔のランドマーク,顔動作単位などの顔の特徴について検討し,多クラス(不安,中性,非不安)とバイナリ(不安,中性,中性)の分類において,自己申告した調査データを用いた。
以上の結果から,特徴量のトップ20%で訓練されたランダムフォレスト分類器は,多クラス分類では91.0%,バイナリ分類では平均92.33%の精度を達成した。
特に、顔の位置と顔のランドマークは、それぞれ85.0%と88.0%の精度、89.66%と91.0%の精度で、個々の顔領域で最高のパフォーマンスを得た。
本研究は、日常のスマートフォンにシームレスに統合して継続的な不安モニタリングを行い、早期発見と介入のための有望な経路を提供する、非侵襲的で費用対効果の高いソリューションを提案する。
関連論文リスト
- Large-scale digital phenotyping: identifying depression and anxiety indicators in a general UK population with over 10,000 participants [2.2909783327197393]
英国在住の一般住民10,129名のデータを横断的に分析した。
参加者は、ウェアラブル(Fitbit)データと、うつ病(PHQ-8)、不安(GAD-7)、ムードに関する自己申告アンケートを、研究アプリを通じて共有した。
気分,年齢,性別,BMI,睡眠パターン,身体活動,心拍数など,うつ病の重症度と不安度との間に有意な関連が認められた。
論文 参考訳(メタデータ) (2024-09-24T16:05:17Z) - AudioInsight: Detecting Social Contexts Relevant to Social Anxiety from Speech [10.648118103594586]
本研究では,環境音節を利用して社会的脅威の文脈を検出する手法を提案する。
我々は、相互作用パートナーの数(ダイアディック対グループ)と評価脅威の度合いの2つの重要な側面に焦点を当てる。
試料幅5倍のCross Validation (CV) では,90%の精度でグループ間相互作用からDyadicを識別し,83%で評価的脅威を検出できた。
論文 参考訳(メタデータ) (2024-07-19T17:01:12Z) - Faces of the Mind: Unveiling Mental Health States Through Facial Expressions in 11,427 Adolescents [12.51443153354506]
うつ病や不安などの気分障害は、しばしば表情を通して現れる。
11,427人の被験者の顔映像を分析した。
論文 参考訳(メタデータ) (2024-05-30T14:02:40Z) - Mental Health Diagnosis in the Digital Age: Harnessing Sentiment
Analysis on Social Media Platforms upon Ultra-Sparse Feature Content [3.6195994708545016]
3次元構造を持つ新しい意味的特徴前処理手法を提案する。
強化されたセマンティック機能により、精神障害を予測および分類するために機械学習モデルを訓練する。
提案手法は,7つのベンチマークモデルと比較して,大幅な性能向上を示した。
論文 参考訳(メタデータ) (2023-11-09T00:15:06Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Personalized State Anxiety Detection: An Empirical Study with Linguistic
Biomarkers and A Machine Learning Pipeline [7.512067061195175]
社会不安の症状が高い人は、しばしば社会的状況における状態不安の上昇を示す。
デジタルバイオマーカーと機械学習技術を利用して、状態の不安を検出することが可能である。
論文 参考訳(メタデータ) (2023-04-19T19:06:42Z) - Robustness Disparities in Face Detection [64.71318433419636]
本稿では,その顔検出システムの詳細なベンチマークとして,商業モデルと学術モデルのノイズに対する頑健性について検討する。
すべてのデータセットやシステム全体で、$textitmasculineである個人の写真が$textitdarker skin type$$$、$textitdarker$、または$textitdim lighting$は、他のIDよりもエラーの影響を受けやすい。
論文 参考訳(メタデータ) (2022-11-29T05:22:47Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Learning Language and Multimodal Privacy-Preserving Markers of Mood from
Mobile Data [74.60507696087966]
精神状態は、先進医療に共通する国でも診断されていない。
人間の行動を監視するための有望なデータソースのひとつは、日々のスマートフォンの利用だ。
本研究では,自殺行動のリスクが高い青少年集団の移動行動のデータセットを用いて,日常生活の行動マーカーについて検討した。
論文 参考訳(メタデータ) (2021-06-24T17:46:03Z) - Anxiety Detection Leveraging Mobile Passive Sensing [53.11661460916551]
不安障害は、子供と成人の両方に影響を及ぼす最も一般的な精神医学的問題である。
スマートフォンから受動的かつ控えめなデータ収集を活用することは、古典的な方法の代替となるかもしれない。
eWellnessは、個人デバイスのセンサとユーザログデータの完全な適合性を、連続的かつ受動的に追跡するために設計された、実験的なモバイルアプリケーションである。
論文 参考訳(メタデータ) (2020-08-09T20:22:52Z) - Investigating the Impact of Inclusion in Face Recognition Training Data
on Individual Face Identification [93.5538147928669]
最新のオープンソースの顔認識システムであるArcFaceを、100万枚以上の散らばった画像を用いた大規模な顔識別実験で監査する。
モデルのトレーニングデータには79.71%、存在しない人には75.73%のランク1顔認証精度がある。
論文 参考訳(メタデータ) (2020-01-09T15:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。