論文の概要: CAST-Phys: Contactless Affective States Through Physiological signals Database
- arxiv url: http://arxiv.org/abs/2507.06080v1
- Date: Tue, 08 Jul 2025 15:20:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:38.259433
- Title: CAST-Phys: Contactless Affective States Through Physiological signals Database
- Title(参考訳): CAST-Phys: 生理情報データベースによる接触のない影響状態
- Authors: Joaquim Comas, Alexander Joel Vera, Xavier Vives, Eleonora De Filippi, Alexandre Pereda, Federico Sukno,
- Abstract要約: 感情的なマルチモーダルデータセットの欠如は、正確な感情認識システムを開発する上で、依然として大きなボトルネックとなっている。
遠隔の生理的感情認識が可能な新しい高品質なデータセットであるCAST-Physを提示する。
本分析では,表情だけでは十分な感情情報が得られない現実的なシナリオにおいて,生理的信号が重要な役割を担っていることを強調した。
- 参考スコア(独自算出の注目度): 74.28082880875368
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, affective computing and its applications have become a fast-growing research topic. Despite significant advancements, the lack of affective multi-modal datasets remains a major bottleneck in developing accurate emotion recognition systems. Furthermore, the use of contact-based devices during emotion elicitation often unintentionally influences the emotional experience, reducing or altering the genuine spontaneous emotional response. This limitation highlights the need for methods capable of extracting affective cues from multiple modalities without physical contact, such as remote physiological emotion recognition. To address this, we present the Contactless Affective States Through Physiological Signals Database (CAST-Phys), a novel high-quality dataset explicitly designed for multi-modal remote physiological emotion recognition using facial and physiological cues. The dataset includes diverse physiological signals, such as photoplethysmography (PPG), electrodermal activity (EDA), and respiration rate (RR), alongside high-resolution uncompressed facial video recordings, enabling the potential for remote signal recovery. Our analysis highlights the crucial role of physiological signals in realistic scenarios where facial expressions alone may not provide sufficient emotional information. Furthermore, we demonstrate the potential of remote multi-modal emotion recognition by evaluating the impact of individual and fused modalities, showcasing its effectiveness in advancing contactless emotion recognition technologies.
- Abstract(参考訳): 近年,感情コンピューティングとその応用は急速に研究の話題になりつつある。
著しい進歩にもかかわらず、感情的なマルチモーダルデータセットの欠如は、正確な感情認識システムの開発において大きなボトルネックとなっている。
さらに、感情誘発における接触型デバイスの使用は、しばしば意図せず感情経験に影響を与え、真の自発的な感情反応を減少または変化させる。
この制限は、リモート生理的感情認識のような物理的接触のない複数のモダリティから感情的な手がかりを抽出できる方法の必要性を強調している。
これを解決するために,顔と生理的手がかりを用いた多モードリモート生理的感情認識のために設計された,新しい高品質なデータセットであるCAST-Physを提示する。
このデータセットには、光胸腺撮影(PPG)、電磁気放射能(EDA)、呼吸速度(RR)などの多様な生理的信号と、高解像度の非圧縮顔画像記録が含まれており、遠隔信号の回復の可能性を可能にしている。
本分析では,表情だけでは十分な感情情報が得られない現実的なシナリオにおいて,生理的信号が重要な役割を担っていることを強調した。
さらに、遠隔マルチモーダル感情認識の可能性について、個人と融合モードの影響を評価し、接触のない感情認識技術の進歩におけるその効果を示す。
関連論文リスト
- Empathetic Conversational Agents: Utilizing Neural and Physiological Signals for Enhanced Empathetic Interactions [18.8995194180207]
会話エージェント(CA)は、テキストベースのチャットボットから豊かな感情表現が可能な共感的デジタル人間(DH)へと進化することで、人間とコンピュータの相互作用に革命をもたらしている。
本稿では,脳神経信号と生理信号とをCAの知覚モジュールに統合し,共感的相互作用を増強する方法について検討する。
論文 参考訳(メタデータ) (2025-01-14T19:19:37Z) - Smile upon the Face but Sadness in the Eyes: Emotion Recognition based on Facial Expressions and Eye Behaviors [63.194053817609024]
視覚行動は、視覚行動支援型マルチモーダル感情認識データセットを作成するための重要な感情的手がかりとなる。
EMERデータセットに感情認識(ER)と表情認識(FER)の両方のアノテーションを初めて提供する。
具体的には、ERとFERの両方のパフォーマンスを同時に向上する新しいEMERTアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-11-08T04:53:55Z) - PHemoNet: A Multimodal Network for Physiological Signals [9.54382727022316]
生理的信号からのマルチモーダル感情認識のための完全超複雑ネットワークであるPHemoNetを紹介する。
アーキテクチャは、モダリティ特異的エンコーダと融合モジュールとから構成される。
提案手法は,MAHNOB-HCIデータセットの最先端モデルより優れている。
論文 参考訳(メタデータ) (2024-09-13T21:14:27Z) - Multi-modal Mood Reader: Pre-trained Model Empowers Cross-Subject Emotion Recognition [23.505616142198487]
我々は、クロスオブジェクト感情認識のための訓練済みモデルに基づくMultimodal Mood Readerを開発した。
このモデルは、大規模データセットの事前学習を通じて、脳波信号の普遍的な潜在表現を学習する。
公開データセットに関する大規模な実験は、クロスオブジェクト感情認識タスクにおけるMood Readerの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-28T14:31:11Z) - Emotion recognition based on multi-modal electrophysiology multi-head
attention Contrastive Learning [3.2536246345549538]
自己教師型コントラスト学習に基づくマルチモーダル感情認識手法ME-MHACLを提案する。
訓練された特徴抽出器をラベル付き電気生理学的信号に適用し、特徴融合に多頭部注意機構を用いる。
本手法は,感情認識タスクにおける既存のベンチマーク手法よりも優れ,個人間一般化能力に優れていた。
論文 参考訳(メタデータ) (2023-07-12T05:55:40Z) - A Survey on Physiological Signal Based Emotion Recognition [1.52292571922932]
生理的信号に基づく感情認識に関する既存のレビュー論文は、感情認識のワークフローに関わる通常のステップのみを調査した。
本稿では、物体間データ分散が感情認識に与える影響、感情認識のための重要なデータアノテーション技術とその比較、各生理的信号に対するデータ前処理技術、感情認識モデルの一般化を改善するデータ分割技術および異なるマルチモーダル融合技術とその比較について述べる。
論文 参考訳(メタデータ) (2022-05-20T23:59:44Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Video-based Remote Physiological Measurement via Cross-verified Feature
Disentangling [121.50704279659253]
非生理的表現と生理的特徴を混同するための横断的特徴分離戦略を提案する。
次に, 蒸留された生理特性を用いて, 頑健なマルチタスク生理測定を行った。
歪んだ特徴は、最終的に平均HR値やr信号のような複数の生理的信号の合同予測に使用される。
論文 参考訳(メタデータ) (2020-07-16T09:39:17Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。