論文の概要: BEAM: Brainwave Empathy Assessment Model for Early Childhood
- arxiv url: http://arxiv.org/abs/2509.06620v1
- Date: Mon, 08 Sep 2025 12:39:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.127937
- Title: BEAM: Brainwave Empathy Assessment Model for Early Childhood
- Title(参考訳): BEAM:幼少期における脳波共感評価モデル
- Authors: Chen Xie, Gaofeng Wu, Kaidong Wang, Zihao Zhu, Xiaoshu Luo, Yan Liang, Feiyu Quan, Ruoxi Wu, Xianghui Huang, Han Zhang,
- Abstract要約: 4~6歳児の共感度を予測するため,脳波共感評価モデル(BEAM)を提案する。
BEAMは多視点脳波信号を用いて、共感の認知的次元と感情的次元の両方を捉える。
複数のメトリクスで最先端の手法より優れており、客観的共感評価の可能性を示している。
- 参考スコア(独自算出の注目度): 13.217179313855867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Empathy in young children is crucial for their social and emotional development, yet predicting it remains challenging. Traditional methods often only rely on self-reports or observer-based labeling, which are susceptible to bias and fail to objectively capture the process of empathy formation. EEG offers an objective alternative; however, current approaches primarily extract static patterns, neglecting temporal dynamics. To overcome these limitations, we propose a novel deep learning framework, the Brainwave Empathy Assessment Model (BEAM), to predict empathy levels in children aged 4-6 years. BEAM leverages multi-view EEG signals to capture both cognitive and emotional dimensions of empathy. The framework comprises three key components: 1) a LaBraM-based encoder for effective spatio-temporal feature extraction, 2) a feature fusion module to integrate complementary information from multi-view signals, and 3) a contrastive learning module to enhance class separation. Validated on the CBCP dataset, BEAM outperforms state-of-the-art methods across multiple metrics, demonstrating its potential for objective empathy assessment and providing a preliminary insight into early interventions in children's prosocial development.
- Abstract(参考訳): 幼児の共感は社会的・感情的な発達に不可欠であるが、それでもそれを予測することは困難である。
伝統的な手法は、しばしば自己申告や観察者に基づくラベリングにのみ依存するが、バイアスの影響を受けやすく、共感の形成過程を客観的に捉えない。
EEGは客観的な代替手段を提供するが、現在のアプローチは主に静的パターンを抽出し、時間的ダイナミクスを無視している。
これらの制約を克服するために,脳波共感評価モデル (BEAM) を提案する。
BEAMは多視点脳波信号を利用して、共感の認知的次元と感情的次元の両方を捉える。
フレームワークには3つの重要なコンポーネントがある。
1) 有効時空間特徴抽出のためのLaBraMベースのエンコーダ
2 多視点信号から補完情報を統合する機能融合モジュール及び
3)クラス分離を高めるための対照的な学習モジュール。
CBCPデータセットで検証されたBEAMは、複数の指標で最先端の手法を上回り、客観的共感評価の可能性を示し、子供の社会的発達における早期介入に関する予備的な洞察を提供する。
関連論文リスト
- Bridging Cognition and Emotion: Empathy-Driven Multimodal Misinformation Detection [56.644686934050576]
ソーシャルメディアは情報発信の主流となっているが、誤報の急速な拡散を助長している。
従来の誤報検出法は主に表面的な特徴に焦点を合わせ、伝播過程における人間の共感の重要な役割を見落としている。
著者と読者の両方の視点から誤情報を分析するために、認知的・感情的共感を統合したデュアル・アスペクト・共感フレームワーク(DAE)を提案する。
論文 参考訳(メタデータ) (2025-04-24T07:48:26Z) - Meta-Representational Predictive Coding: Biomimetic Self-Supervised Learning [51.22185316175418]
メタ表現予測符号化(MPC)と呼ばれる新しい予測符号化方式を提案する。
MPCは、並列ストリームにまたがる感覚入力の表現を予測することを学ぶことによって、感覚入力の生成モデルを学ぶ必要性を助長する。
論文 参考訳(メタデータ) (2025-03-22T22:13:14Z) - Detecting Children with Autism Spectrum Disorder based on Script-Centric Behavior Understanding with Emotional Enhancement [9.55864687646197]
本稿では,ゼロショット自閉症スペクトラム(ASD)検出フレームワークを提案する。
提案したパイプラインは、コンピュータビジョン技術を用いて、音声・視覚データを構造化された行動テキストスクリプトに自動的に変換する。
平均年齢2歳児のASD診断におけるF1スコアは95.24%であり,解釈可能な検出基準が得られた。
論文 参考訳(メタデータ) (2024-11-14T13:07:19Z) - Enhancing Autism Spectrum Disorder Early Detection with the Parent-Child Dyads Block-Play Protocol and an Attention-enhanced GCN-xLSTM Hybrid Deep Learning Framework [6.785167067600156]
本研究は,ASDと発達幼児を区別する行動パターンを識別するための,親子ダイズブロックプレイ(PCB)プロトコルを提案する。
40人のASDと89人のTD幼児が親とのブロックプレイに従事している。
このデータセットは、参加者の規模と個々のセッションの長さの両方に関する以前の取り組みを上回る。
論文 参考訳(メタデータ) (2024-08-29T21:53:01Z) - Multi-modal Mood Reader: Pre-trained Model Empowers Cross-Subject Emotion Recognition [23.505616142198487]
我々は、クロスオブジェクト感情認識のための訓練済みモデルに基づくMultimodal Mood Readerを開発した。
このモデルは、大規模データセットの事前学習を通じて、脳波信号の普遍的な潜在表現を学習する。
公開データセットに関する大規模な実験は、クロスオブジェクト感情認識タスクにおけるMood Readerの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-28T14:31:11Z) - Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - Hybrid Models for Facial Emotion Recognition in Children [0.0]
本稿では,遠隔操作型ロボットによる子どものセラピーの実践において,心理学者を支援するための感情認識技術の利用に焦点を当てた。
Embodied Conversational Agents (ECA) は、プロが社会的課題に直面している子供と繋がる手助けをする仲介ツールである。
論文 参考訳(メタデータ) (2023-08-24T04:20:20Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - Vision-Based Activity Recognition in Children with Autism-Related
Behaviors [15.915410623440874]
臨床医や親が子どもの行動を分析するのに役立つ地域型コンピュータビジョンシステムの効果を実証する。
データは、ビデオ中の対象の子供を検出し、背景雑音の影響を低減することで前処理される。
時間的畳み込みモデルの有効性から,ビデオフレームから動作特徴を抽出できる軽量モデルと従来モデルの両方を提案する。
論文 参考訳(メタデータ) (2022-08-08T15:12:27Z) - MEmoBERT: Pre-training Model with Prompt-based Learning for Multimodal
Emotion Recognition [118.73025093045652]
マルチモーダル感情認識のための事前学習モデル textbfMEmoBERT を提案する。
従来の「訓練前、微妙な」パラダイムとは異なり、下流の感情分類タスクをマスク付きテキスト予測として再構成するプロンプトベースの手法を提案する。
提案するMEMOBERTは感情認識性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-27T09:57:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。