論文の概要: WELD: A Large-Scale Longitudinal Dataset of Emotional Dynamics for Ubiquitous Affective Computing
- arxiv url: http://arxiv.org/abs/2510.15221v1
- Date: Fri, 17 Oct 2025 00:59:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.429762
- Title: WELD: A Large-Scale Longitudinal Dataset of Emotional Dynamics for Ubiquitous Affective Computing
- Title(参考訳): WELD: Ubiquitous Affective Computingのための感情ダイナミクスの大規模時系列データセット
- Authors: Xiao Sun,
- Abstract要約: 実際のオフィス環境において,38名の従業員が30.5ヶ月以上にわたって収集した表情記録から,733,651名からなる新しいデータセットを作成した。
各レコードは、深層学習に基づく表情認識から派生した7つの感情確率を含む。
データセットは新型コロナウイルス(COVID-19)のパンデミック期間に特化しており、主要な社会的出来事に対する感情的な反応を捉えている。
- 参考スコア(独自算出の注目度): 4.975899099577257
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated emotion recognition in real-world workplace settings remains a challenging problem in affective computing due to the scarcity of large-scale, longitudinal datasets collected in naturalistic environments. We present a novel dataset comprising 733,651 facial expression records from 38 employees collected over 30.5 months (November 2021 to May 2024) in an authentic office environment. Each record contains seven emotion probabilities (neutral, happy, sad, surprised, fear, disgusted, angry) derived from deep learning-based facial expression recognition, along with comprehensive metadata including job roles, employment outcomes, and personality traits. The dataset uniquely spans the COVID-19 pandemic period, capturing emotional responses to major societal events including the Shanghai lockdown and policy changes. We provide 32 extended emotional metrics computed using established affective science methods, including valence, arousal, volatility, predictability, inertia, and emotional contagion strength. Technical validation demonstrates high data quality through successful replication of known psychological patterns (weekend effect: +192% valence improvement, p < 0.001; diurnal rhythm validated) and perfect predictive validity for employee turnover (AUC=1.0). Baseline experiments using Random Forest and LSTM models achieve 91.2% accuracy for emotion classification and R2 = 0.84 for valence prediction. This is the largest and longest longitudinal workplace emotion dataset publicly available, enabling research in emotion recognition, affective dynamics modeling, emotional contagion, turnover prediction, and emotion-aware system design.
- Abstract(参考訳): 実世界の職場環境における感情の自動認識は、自然環境において収集された大規模で縦長のデータセットが不足しているため、感情コンピューティングにおいて依然として難しい問題である。
30.5カ月(2021年11月~2024年5月)以上で収集した38名の顔表情記録を,オフィス環境下で新たに733,651名とした。
それぞれの記録には、深層学習に基づく表情認識から派生した7つの感情確率(中性、幸福、悲しみ、驚き、恐怖、嫌悪、怒り)と、職歴、雇用結果、性格特性を含む包括的なメタデータが含まれている。
このデータセットは、新型コロナウイルス(COVID-19)のパンデミック期間に特化しており、上海のロックダウンや政策変更など、主要な社会イベントに対する感情的な反応を捉えている。
我々は,有病率,覚醒度,ボラティリティ,予測可能性,慣性,感情の伝染力など,確立された感情科学手法を用いて算出された32の感情的指標を提供する。
技術的検証は、既知の心理学的パターンの複製(週単位効果: +192%の原子価改善、p < 0.001;日周期のリズム検証)を成功させ、従業員の転職を予測できる完全正当性(AUC=1.0)を通じて、高いデータ品質を示す。
ランダムフォレストモデルとLSTMモデルを用いたベースライン実験では、感情分類の精度は91.2%、原子価予測のR2 = 0.84である。
これは、感情認識、感情動態モデリング、感情伝染、ターンオーバー予測、感情認識システム設計の研究を可能にする、公開可能な最大かつ最長の職場感情データセットである。
関連論文リスト
- Emotion Detection in Older Adults Using Physiological Signals from Wearable Sensors [0.40964539027092906]
本研究は,ウェアラブルセンサから得られる生理的信号のみを用いた感情識別へのエッジベース非邪魔的アプローチについて検討する。
本研究の目的は、カメラや侵入型顔分析を必要とせずに、単に生理的センサーデータを用いて、感情認識がいかに効果的に達成できるかを検討することである。
本手法の有効性を検証し,現実の環境下でのプライバシー保護と効率的な感情認識システムの実現方法について検討した。
論文 参考訳(メタデータ) (2025-07-10T20:59:25Z) - CAST-Phys: Contactless Affective States Through Physiological signals Database [74.28082880875368]
感情的なマルチモーダルデータセットの欠如は、正確な感情認識システムを開発する上で、依然として大きなボトルネックとなっている。
遠隔の生理的感情認識が可能な新しい高品質なデータセットであるCAST-Physを提示する。
本分析では,表情だけでは十分な感情情報が得られない現実的なシナリオにおいて,生理的信号が重要な役割を担っていることを強調した。
論文 参考訳(メタデータ) (2025-07-08T15:20:24Z) - Empaths at SemEval-2025 Task 11: Retrieval-Augmented Approach to Perceived Emotions Prediction [83.88591755871734]
EmoRAGは、SemEval-2025 Task 11, Subtask A: Multi-label Emotion Detectionのためのテキスト中の知覚感情を検出するように設計されたシステムである。
我々は、与えられたテキストスニペットから話者の知覚された感情を予測することに集中し、喜び、悲しみ、恐怖、怒り、驚き、嫌悪感などの感情をラベル付けする。
論文 参考訳(メタデータ) (2025-06-04T19:41:24Z) - Interpretable Multi-Task PINN for Emotion Recognition and EDA Prediction [0.0]
本研究では,電場活動(EDA)予測と感情分類を同時に行う新しいマルチタスク物理情報ニューラルネットワーク(PINN)を提案する。
このモデルは、心理学的自己報告特徴(PANASとSAM)と、EDAダイナミクスを表す物理学に着想を得た微分方程式を統合する。
このアーキテクチャは両方のタスクに対して二重出力をサポートし、統一されたマルチタスクフレームワークの下で訓練される。
論文 参考訳(メタデータ) (2025-05-14T03:13:51Z) - Implicit Design Choices and Their Impact on Emotion Recognition Model
Development and Evaluation [5.534160116442057]
感情の主観性は、正確で堅牢な計算モデルを開発する上で大きな課題を生じさせる。
この論文は、多様なデータセットの収集から始まる感情認識の批判的な側面を調べる。
非表現的トレーニングデータの課題に対処するため、この研究はマルチモーダルストレス感情データセットを収集する。
論文 参考訳(メタデータ) (2023-09-06T02:45:42Z) - Multimodal Feature Extraction and Fusion for Emotional Reaction
Intensity Estimation and Expression Classification in Videos with
Transformers [47.16005553291036]
我々は,野生(ABAW)2023における2つの影響行動分析のサブチャレンジに対して,その解決策を提示する。
表現分類チャレンジでは,分類の課題を効果的に処理する合理化アプローチを提案する。
これらの特徴を研究、分析、組み合わせることで、マルチモーダルコンテキストにおける感情予測のためのモデルの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2023-03-16T09:03:17Z) - A cross-corpus study on speech emotion recognition [29.582678406878568]
本研究では,行動感情から学習した情報が,自然感情の検出に有用かどうかを検討する。
成人英語の4つのデータセットは、行動的、誘惑的、自然な感情をカバーしている。
性能劣化を正確に調査するための最先端モデルを提案する。
論文 参考訳(メタデータ) (2022-07-05T15:15:22Z) - The MuSe 2022 Multimodal Sentiment Analysis Challenge: Humor, Emotional
Reactions, and Stress [71.06453250061489]
マルチモーダル・センチメント・アナリティクス・チャレンジ(MuSe 2022)は、マルチモーダル・センチメントと感情認識に重点を置いている。
今年の課題では、(i)ドイツサッカーコーチの音声-視覚的記録を含むPassau Spontaneous Football Coach Humorデータセット、(ii)ドイツサッカーコーチのユーモアの存在をラベル付けしたHum-Reactionデータセット、(ii)感情的表情強度に対して個人の反応が注釈付けされたHum-Reactionデータセット、(iii)ストレス的態度における人々の継続的な感情的価値観をラベル付けした音声-視覚的データからなるUlm-Trier Social Stress Testデータセットの3つのデータセットを特徴としている。
論文 参考訳(メタデータ) (2022-06-23T13:34:33Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。