論文の概要: Hugging Rain Man: A Novel Facial Action Units Dataset for Analyzing Atypical Facial Expressions in Children with Autism Spectrum Disorder
- arxiv url: http://arxiv.org/abs/2411.13797v1
- Date: Thu, 21 Nov 2024 02:51:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-22 15:19:15.778810
- Title: Hugging Rain Man: A Novel Facial Action Units Dataset for Analyzing Atypical Facial Expressions in Children with Autism Spectrum Disorder
- Title(参考訳): Hugging Rain Man: 自閉症スペクトラム障害児における非典型的表情分析のための新しい顔行動単位データセット
- Authors: Yanfeng Ji, Shutong Wang, Ruyi Xu, Jingying Chen, Xinzhou Jiang, Zhengyu Deng, Yuxuan Quan, Junpeng Liu,
- Abstract要約: 我々は,ASDと典型的発達(TD)の双方に対して,FACSの専門家が手動でアノテートした顔アクションユニット(AU)を含む,新しいデータセットHugging Rain Manを紹介する。
データセットには、ポーズと自発的な表情の豊富なコレクションが含まれており、合計で約130,000フレーム、22のAU、10のAction Descriptors(AD)、非定型評価が含まれている。
- 参考スコア(独自算出の注目度): 2.3001245059699014
- License:
- Abstract: Children with Autism Spectrum Disorder (ASD) often exhibit atypical facial expressions. However, the specific objective facial features that underlie this subjective perception remain unclear. In this paper, we introduce a novel dataset, Hugging Rain Man (HRM), which includes facial action units (AUs) manually annotated by FACS experts for both children with ASD and typical development (TD). The dataset comprises a rich collection of posed and spontaneous facial expressions, totaling approximately 130,000 frames, along with 22 AUs, 10 Action Descriptors (ADs), and atypicality ratings. A statistical analysis of static images from the HRM reveals significant differences between the ASD and TD groups across multiple AUs and ADs when displaying the same emotional expressions, confirming that participants with ASD tend to demonstrate more irregular and diverse expression patterns. Subsequently, a temporal regression method was presented to analyze atypicality of dynamic sequences, thereby bridging the gap between subjective perception and objective facial characteristics. Furthermore, baseline results for AU detection are provided for future research reference. This work not only contributes to our understanding of the unique facial expression characteristics associated with ASD but also provides potential tools for ASD early screening. Portions of the dataset, features, and pretrained models are accessible at: \url{https://github.com/Jonas-DL/Hugging-Rain-Man}.
- Abstract(参考訳): 自閉症スペクトラム障害(ASD)の子供は、しばしば非定型的な表情を示す。
しかし、この主観的知覚を過小評価する特定の客観的な顔的特徴はいまだに不明である。
本稿では,ASD と典型的発達 (TD) の双方に対して,FACS の専門家が手動でアノテートした顔アクションユニット (AUs) を含む新しいデータセットであるHugging Rain Man (HRM) を紹介する。
データセットには、ポーズと自発的な表情の豊富なコレクションが含まれており、合計で約130,000フレーム、22のAU、10のAction Descriptors(AD)、および非定型評価が含まれている。
HRMによる静的画像の統計的解析では、複数のAUとADにまたがるASD群とTD群との有意な差異が示され、ASDの参加者がより不規則で多様な表現パターンを示す傾向があることが確認された。
その後、動的配列の非定型性を解析し、主観的知覚と客観的顔特性のギャップを埋める時間回帰法が提示された。
さらに、将来の研究基準として、AU検出のためのベースライン結果を提供する。
この研究は、ASDに関連するユニークな表情特性の理解に寄与するだけでなく、早期スクリーニングのための潜在的なツールも提供します。
データセット、機能、事前トレーニングされたモデルのポートは、以下の通りである。
関連論文リスト
- Exploring Gaze Pattern in Autistic Children: Clustering, Visualization, and Prediction [9.251838958621684]
そこで本稿では, ASD 児の視線行動を自動的に精度良く解析する手法を提案する。
まず、7つのクラスタリングアルゴリズムを適用して、視線ポイントを自動的にグループ化し、一般的に発達しているASD被験者と比較する。
最後に,これらの特徴を事前知識として用いて,視線行動に基づいて複数の予測機械学習モデルをトレーニングし,ASDの予測と診断を行う。
論文 参考訳(メタデータ) (2024-09-18T06:56:06Z) - Ensemble Modeling of Multiple Physical Indicators to Dynamically Phenotype Autism Spectrum Disorder [3.6630139570443996]
自閉症スペクトラム障害(ASD)に関連する表現型マーカーを検出するためのコンピュータビジョンモデルをトレーニングするためのデータセットを提供する。
視線,頭位,顔のランドマークを入力として,LSTMを用いた個別モデルを訓練し,テストAUCは86%,67%,78%であった。
論文 参考訳(メタデータ) (2024-08-23T17:55:58Z) - Contrastive Learning of Person-independent Representations for Facial
Action Unit Detection [70.60587475492065]
自己教師型AU表現学習信号を2次元で定式化する。
ビデオクリップ内でAU表現を学習し、個人に依存しない表現を学習するためのクロスアイデンティティ再構築機構を考案する。
提案手法は,他のコントラスト学習手法よりも優れており,自己教師と教師付きAU検出手法間の性能ギャップを著しく短縮する。
論文 参考訳(メタデータ) (2024-03-06T01:49:28Z) - Screening Autism Spectrum Disorder in childrens using Deep Learning
Approach : Evaluating the classification model of YOLOv8 by comparing with
other models [0.0]
そこで本稿では,YoloV8モデルを用いた顔画像を用いたASDスクリーニングの実践的解決策を提案する。
分類の精度は89.64%、F1スコアは0.89。
論文 参考訳(メタデータ) (2023-06-25T18:02:01Z) - Exploiting the Brain's Network Structure for Automatic Identification of
ADHD Subjects [70.37277191524755]
我々は脳を機能的ネットワークとしてモデル化できることを示し,ADHD被験者と制御対象とではネットワークの特定の特性が異なることを示した。
776名の被験者で分類器を訓練し,ADHD-200チャレンジのために神経局が提供する171名の被験者を対象に試験を行った。
論文 参考訳(メタデータ) (2023-06-15T16:22:57Z) - Improving Deep Facial Phenotyping for Ultra-rare Disorder Verification
Using Model Ensembles [52.77024349608834]
我々は、DCNNを最先端の顔認識手法であるiResNetとArcFaceに置き換える影響を分析する。
提案するアンサンブルモデルにより,目視と目視の両障害に対する最先端のパフォーマンスが達成される。
論文 参考訳(メタデータ) (2022-11-12T23:28:54Z) - A Federated Learning Scheme for Neuro-developmental Disorders:
Multi-Aspect ASD Detection [2.7221938979891385]
自閉症スペクトラム障害(Autism Spectrum disorder、ASD)は、出生前の胚脳の変化に起因する神経発達障害である。
本研究では,個人の行動や顔の特徴に基づいて,ある個人におけるASDを予測するための,プライバシ保護型フェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2022-10-31T13:56:36Z) - ViTASD: Robust Vision Transformer Baselines for Autism Spectrum Disorder
Facial Diagnosis [6.695640702099725]
自閉症スペクトラム障害(Autism spectrum disorder、ASD)は、世界中で非常に高い頻度で進行する、生涯にわたる神経発達障害である。
本稿では,視覚変換器 (ViT) を小児型ASDの計算解析に用いることを提案する。
提示されたモデルはViTASDと呼ばれ、大きな表情データセットから知識を抽出し、モデル構造転送性を提供する。
論文 参考訳(メタデータ) (2022-10-30T20:38:56Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer [51.926868759681014]
骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
論文 参考訳(メタデータ) (2020-08-20T09:49:13Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。