論文の概要: A Hybrid Deep Learning Framework for Emotion Recognition in Children with Autism During NAO Robot-Mediated Interaction
- arxiv url: http://arxiv.org/abs/2512.12208v1
- Date: Sat, 13 Dec 2025 06:40:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.161913
- Title: A Hybrid Deep Learning Framework for Emotion Recognition in Children with Autism During NAO Robot-Mediated Interaction
- Title(参考訳): NAOロボットによる対話における自閉症児の感情認識のためのハイブリッド・ディープラーニング・フレームワーク
- Authors: Indranil Bhattacharjee, Vartika Narayani Srinet, Anirudha Bhattacharjee, Braj Bhushan, Bishakh Bhattacharya,
- Abstract要約: 本研究では,ヒューマノイドロボットによる名前呼び出しイベントに対する自閉症児の感情認識のための新しい深層学習パイプラインを提案する。
データセットは、ASDを持つ15人の子供のビデオ記録から抽出された約5万の顔フレームから構成される。
- 参考スコア(独自算出の注目度): 0.6524460254566904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding emotional responses in children with Autism Spectrum Disorder (ASD) during social interaction remains a critical challenge in both developmental psychology and human-robot interaction. This study presents a novel deep learning pipeline for emotion recognition in autistic children in response to a name-calling event by a humanoid robot (NAO), under controlled experimental settings. The dataset comprises of around 50,000 facial frames extracted from video recordings of 15 children with ASD. A hybrid model combining a fine-tuned ResNet-50-based Convolutional Neural Network (CNN) and a three-layer Graph Convolutional Network (GCN) trained on both visual and geometric features extracted from MediaPipe FaceMesh landmarks. Emotions were probabilistically labeled using a weighted ensemble of two models: DeepFace's and FER, each contributing to soft-label generation across seven emotion classes. Final classification leveraged a fused embedding optimized via Kullback-Leibler divergence. The proposed method demonstrates robust performance in modeling subtle affective responses and offers significant promise for affective profiling of ASD children in clinical and therapeutic human-robot interaction contexts, as the pipeline effectively captures micro emotional cues in neurodivergent children, addressing a major gap in autism-specific HRI research. This work represents the first such large-scale, real-world dataset and pipeline from India on autism-focused emotion analysis using social robotics, contributing an essential foundation for future personalized assistive technologies.
- Abstract(参考訳): 自閉症スペクトラム障害(ASD)児の社会的相互作用における感情反応の理解は、発達心理学と人間とロボットの相互作用において重要な課題である。
本研究は,ヒューマノイドロボット(NAO)による名前呼び出しイベントに対する自閉症児の感情認識のための新しい深層学習パイプラインを提案する。
データセットは、ASDを持つ15人の子供のビデオ記録から抽出された約5万の顔フレームから構成される。
微調整されたResNet-50ベースの畳み込みニューラルネットワーク(CNN)と、MediaPipe FaceMeshランドマークから抽出された視覚的特徴と幾何学的特徴の両方に基づいてトレーニングされた3層グラフ畳み込みニューラルネットワーク(GCN)を組み合わせたハイブリッドモデル。
感情は2つのモデルの重み付けされたアンサンブル(DeepFace's)とFER(FER)を使用して確率的にラベル付けされ、それぞれ7つの感情クラスでソフトラベルの生成に寄与した。
最終分類は、Kullback-Leiblerの発散によって最適化された融合埋め込みを利用する。
提案手法は, 微妙な情動応答のモデル化における堅牢な性能を示し, 臨床および治療的ヒト-ロボット相互作用の文脈において, ASD 児の情動プロファイリングに有意な可能性を示唆する。
この研究は、社会ロボティクスを用いた自閉症に焦点を当てた感情分析に関する、インド初の大規模で現実世界のデータセットとパイプラインであり、将来のパーソナライズされた支援技術の基礎となっている。
関連論文リスト
- CAST-Phys: Contactless Affective States Through Physiological signals Database [74.28082880875368]
感情的なマルチモーダルデータセットの欠如は、正確な感情認識システムを開発する上で、依然として大きなボトルネックとなっている。
遠隔の生理的感情認識が可能な新しい高品質なデータセットであるCAST-Physを提示する。
本分析では,表情だけでは十分な感情情報が得られない現実的なシナリオにおいて,生理的信号が重要な役割を担っていることを強調した。
論文 参考訳(メタデータ) (2025-07-08T15:20:24Z) - Enhancing Autism Spectrum Disorder Early Detection with the Parent-Child Dyads Block-Play Protocol and an Attention-enhanced GCN-xLSTM Hybrid Deep Learning Framework [6.785167067600156]
本研究は,ASDと発達幼児を区別する行動パターンを識別するための,親子ダイズブロックプレイ(PCB)プロトコルを提案する。
40人のASDと89人のTD幼児が親とのブロックプレイに従事している。
このデータセットは、参加者の規模と個々のセッションの長さの両方に関する以前の取り組みを上回る。
論文 参考訳(メタデータ) (2024-08-29T21:53:01Z) - Hybrid Models for Facial Emotion Recognition in Children [0.0]
本稿では,遠隔操作型ロボットによる子どものセラピーの実践において,心理学者を支援するための感情認識技術の利用に焦点を当てた。
Embodied Conversational Agents (ECA) は、プロが社会的課題に直面している子供と繋がる手助けをする仲介ツールである。
論文 参考訳(メタデータ) (2023-08-24T04:20:20Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - Vision-Based Activity Recognition in Children with Autism-Related
Behaviors [15.915410623440874]
臨床医や親が子どもの行動を分析するのに役立つ地域型コンピュータビジョンシステムの効果を実証する。
データは、ビデオ中の対象の子供を検出し、背景雑音の影響を低減することで前処理される。
時間的畳み込みモデルの有効性から,ビデオフレームから動作特徴を抽出できる軽量モデルと従来モデルの両方を提案する。
論文 参考訳(メタデータ) (2022-08-08T15:12:27Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Exploring the pattern of Emotion in children with ASD as an early
biomarker through Recurring-Convolution Neural Network (R-CNN) [0.0]
本論文は,基本的表情の同定と時間変化因子による感情の探索を行う。
これらの感情は、前頭面にプロットされた68個のランドマークポイントを用いて、CNN-FERシステムとして知られるRNNによって形成された予測ネットワークを用いて、CNNで識別された表情を組み込むことで分析される。
論文 参考訳(メタデータ) (2021-12-30T09:35:05Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - A Two-stage Multi-modal Affect Analysis Framework for Children with
Autism Spectrum Disorder [3.029434408969759]
実環境における遊び療法におけるASDの影響状態の3つの主要な影響状態を予測するために,音響的および視覚的手がかりを利用したオープンソースの2段階マルチモーダルアプローチを提案する。
この研究は、2段階のスキーマを提案することによって、ASDに対する人間の専門知識とマシンインテリジェンスを組み合わせる新しい方法を示す。
論文 参考訳(メタデータ) (2021-06-17T01:28:53Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。