論文の概要: Emotion Detection in Older Adults Using Physiological Signals from Wearable Sensors
- arxiv url: http://arxiv.org/abs/2507.08167v1
- Date: Thu, 10 Jul 2025 20:59:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.17621
- Title: Emotion Detection in Older Adults Using Physiological Signals from Wearable Sensors
- Title(参考訳): ウェアラブルセンサの生理的信号を用いた高齢者の感情検出
- Authors: Md. Saif Hassan Onim, Andrew M. Kiselica, Himanshu Thapliyal,
- Abstract要約: 本研究は,ウェアラブルセンサから得られる生理的信号のみを用いた感情識別へのエッジベース非邪魔的アプローチについて検討する。
本研究の目的は、カメラや侵入型顔分析を必要とせずに、単に生理的センサーデータを用いて、感情認識がいかに効果的に達成できるかを検討することである。
本手法の有効性を検証し,現実の環境下でのプライバシー保護と効率的な感情認識システムの実現方法について検討した。
- 参考スコア(独自算出の注目度): 0.40964539027092906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion detection in older adults is crucial for understanding their cognitive and emotional well-being, especially in hospital and assisted living environments. In this work, we investigate an edge-based, non-obtrusive approach to emotion identification that uses only physiological signals obtained via wearable sensors. Our dataset includes data from 40 older individuals. Emotional states were obtained using physiological signals from the Empatica E4 and Shimmer3 GSR+ wristband and facial expressions were recorded using camera-based emotion recognition with the iMotion's Facial Expression Analysis (FEA) module. The dataset also contains twelve emotion categories in terms of relative intensities. We aim to study how well emotion recognition can be accomplished using simply physiological sensor data, without the requirement for cameras or intrusive facial analysis. By leveraging classical machine learning models, we predict the intensity of emotional responses based on physiological signals. We achieved the highest 0.782 r2 score with the lowest 0.0006 MSE on the regression task. This method has significant implications for individuals with Alzheimer's Disease and Related Dementia (ADRD), as well as veterans coping with Post-Traumatic Stress Disorder (PTSD) or other cognitive impairments. Our results across multiple classical regression models validate the feasibility of this method, paving the way for privacy-preserving and efficient emotion recognition systems in real-world settings.
- Abstract(参考訳): 高齢者の感情検出は、認知的・感情的幸福感、特に病院や生活支援環境での理解に不可欠である。
本研究では,ウェアラブルセンサから得られる生理的信号のみを用いた感情識別へのエッジベース非邪魔的アプローチについて検討する。
私たちのデータセットには40人の高齢者のデータが含まれています。
情動状態をEnpatica E4およびShimmer3 GSR+リストバンドの生理的信号を用いて取得し,iMotionの表情解析(FEA)モジュールを用いたカメラによる感情認識を用いて表情を記録した。
データセットには、相対的な強度の観点から、12の感情カテゴリも含まれている。
本研究の目的は、カメラや侵入型顔分析を必要とせずに、単に生理的センサーデータを用いて、感情認識がいかに効果的に達成できるかを検討することである。
従来の機械学習モデルを利用して、生理的信号に基づいて感情応答の強度を予測する。
回帰作業では0.782 r2のスコアを最低0.0006 MSEで達成した。
この方法は、アルツハイマー病および関連認知症(ADRD)の患者や、外傷後ストレス障害(PTSD)や他の認知障害に対処する退役軍人に重要な意味を持つ。
複数の古典的回帰モデルにまたがって、この手法の有効性を検証し、現実の環境でのプライバシー保護と効率的な感情認識システムの実現方法について検討した。
関連論文リスト
- Emotion Recognition in Older Adults with Quantum Machine Learning and Wearable Sensors [0.5188841610098435]
生理的信号からのみ感情状態を推定できる可能性について検討した。
従来の機械学習アルゴリズムとハイブリッド量子機械学習(QML)手法のパフォーマンス比較を行う。
その結果、量子化SVMは、すべての感情カテゴリで古典的な分類性能を上回ることが示唆された。
論文 参考訳(メタデータ) (2025-07-10T21:12:12Z) - CAST-Phys: Contactless Affective States Through Physiological signals Database [74.28082880875368]
感情的なマルチモーダルデータセットの欠如は、正確な感情認識システムを開発する上で、依然として大きなボトルネックとなっている。
遠隔の生理的感情認識が可能な新しい高品質なデータセットであるCAST-Physを提示する。
本分析では,表情だけでは十分な感情情報が得られない現実的なシナリオにおいて,生理的信号が重要な役割を担っていることを強調した。
論文 参考訳(メタデータ) (2025-07-08T15:20:24Z) - Disentangle Identity, Cooperate Emotion: Correlation-Aware Emotional Talking Portrait Generation [63.94836524433559]
DICE-Talkは、感情と同一性を切り離し、類似した特徴を持つ感情を協調するフレームワークである。
我々は、モーダル・アテンションを通して、音声と視覚の感情の手がかりを共同でモデル化するアンタングル型感情埋め込み装置を開発した。
次に,学習可能な感情バンクを用いた相関強化感情調和モジュールを提案する。
第3に、拡散過程における感情の一貫性を強制する感情識別目標を設計する。
論文 参考訳(メタデータ) (2025-04-25T05:28:21Z) - Empathetic Conversational Agents: Utilizing Neural and Physiological Signals for Enhanced Empathetic Interactions [18.8995194180207]
会話エージェント(CA)は、テキストベースのチャットボットから豊かな感情表現が可能な共感的デジタル人間(DH)へと進化することで、人間とコンピュータの相互作用に革命をもたらしている。
本稿では,脳神経信号と生理信号とをCAの知覚モジュールに統合し,共感的相互作用を増強する方法について検討する。
論文 参考訳(メタデータ) (2025-01-14T19:19:37Z) - Smile upon the Face but Sadness in the Eyes: Emotion Recognition based on Facial Expressions and Eye Behaviors [63.194053817609024]
視覚行動は、視覚行動支援型マルチモーダル感情認識データセットを作成するための重要な感情的手がかりとなる。
EMERデータセットに感情認識(ER)と表情認識(FER)の両方のアノテーションを初めて提供する。
具体的には、ERとFERの両方のパフォーマンスを同時に向上する新しいEMERTアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-11-08T04:53:55Z) - Emotion Analysis on EEG Signal Using Machine Learning and Neural Network [0.0]
本研究の目的は,脳信号を用いた感情認識能力の向上である。
人間と機械の相互作用技術への様々なアプローチは長い間進行中であり、近年では脳信号を使って感情を自動的に理解することに成功した。
論文 参考訳(メタデータ) (2023-07-09T09:50:34Z) - Preserving Privacy in Human-Motion Affect Recognition [4.753703852165805]
本研究は,3次元の時間的関節信号と手動抽出特徴を用いた感情認識における既存手法の有効性を評価する。
本稿では,マルチエンコーダ自動エンコーダ深層ニューラルネットワークを訓練し,人間の動作特徴の不連続な潜在表現を学習するクロスサブジェクトトランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2021-05-09T15:26:21Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。