論文の概要: A Physiologically-Adapted Gold Standard for Arousal during Stress
- arxiv url: http://arxiv.org/abs/2107.12964v2
- Date: Wed, 28 Jul 2021 13:08:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-30 10:54:39.199056
- Title: A Physiologically-Adapted Gold Standard for Arousal during Stress
- Title(参考訳): ストレス時の覚醒に対する生理的適応金標準
- Authors: Alice Baird, Lukas Stappen, Lukas Christ, Lea Schumann, Eva-Maria
Me{\ss}ner, Bj\"orn W. Schuller
- Abstract要約: ストレス誘発シナリオ(トリエ・ソーシャル・ストレス・テスト)で捉えた連続的な感情と生理的信号を含むデータセット(BPM)、心電活動(EDA)、呼吸速度(respiration-rate)を利用する。
本研究の目的は,これらの生理的信号をターゲットとして融合し,様々な音声,ビデオ,テキストに基づく特徴から学習することである。
照度相関係数は, 照度のみの標準値に比べて, EDAと照度を合わせると, 照度相関係数が向上することがわかった。
- 参考スコア(独自算出の注目度): 13.360894928330504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion is an inherently subjective psychophysiological human-state and to
produce an agreed-upon representation (gold standard) for continuous emotion
requires a time-consuming and costly training procedure of multiple human
annotators. There is strong evidence in the literature that physiological
signals are sufficient objective markers for states of emotion, particularly
arousal. In this contribution, we utilise a dataset which includes continuous
emotion and physiological signals - Heartbeats per Minute (BPM), Electrodermal
Activity (EDA), and Respiration-rate - captured during a stress inducing
scenario (Trier Social Stress Test). We utilise a Long Short-Term Memory,
Recurrent Neural Network to explore the benefit of fusing these physiological
signals with arousal as the target, learning from various audio, video, and
textual based features. We utilise the state-of-the-art MuSe-Toolbox to
consider both annotation delay and inter-rater agreement weighting when fusing
the target signals. An improvement in Concordance Correlation Coefficient (CCC)
is seen across features sets when fusing EDA with arousal, compared to the
arousal only gold standard results. Additionally, BERT-based textual features'
results improved for arousal plus all physiological signals, obtaining up to
.3344 CCC compared to .2118 CCC for arousal only. Multimodal fusion also
improves overall CCC with audio plus video features obtaining up to .6157 CCC
to recognize arousal plus EDA and BPM.
- Abstract(参考訳): 感情は本質的に主観的な精神生理的人間状態であり、連続的な感情に対する合意されたアップオン表現(金の標準)を生成するには、複数の人間の注釈の時間とコストを要する。
この文献には、生理的信号が感情の状態、特に覚醒状態の十分な客観的マーカーであるという強い証拠がある。
本研究では,ストレス誘発シナリオ(トリアー・ソーシャル・ストレス・テスト)において,連続的な感情と生理的シグナル(心拍数毎分(bpm),電極活動(eda),呼吸速度(呼吸速度)を含むデータセットを活用した。
我々は,これらの生理的信号を目標として活用し,様々な音声,ビデオ,テキストに基づく特徴から学習することの利点を探るために,長期記憶と反復的ニューラルネットワークを用いた。
我々は、現在最先端の MuSe-Toolbox を利用して、目標信号の融合時にアノテーション遅延とラッター間合意重み付けの両方を考慮する。
共振器相関係数 (CCC) の改善は, EDA を刺激的に融合させる際の特徴集合間で見られ, 刺激のみの金標準値と比較した。
さらに、BERTベースのテキスト特徴の結果は、覚醒とすべての生理的信号に改善され、.3344 CCCと、覚醒のみに.2118 CCCが得られた。
マルチモーダル・フュージョンはまた、オーディオとビデオの機能を.6157 CCCで改善し、興奮とEDAとBPMを認識する。
関連論文リスト
- Smile upon the Face but Sadness in the Eyes: Emotion Recognition based on Facial Expressions and Eye Behaviors [63.194053817609024]
視覚行動は、視覚行動支援型マルチモーダル感情認識データセットを作成するための重要な感情的手がかりとなる。
EMERデータセットに感情認識(ER)と表情認識(FER)の両方のアノテーションを初めて提供する。
具体的には、ERとFERの両方のパフォーマンスを同時に向上する新しいEMERTアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-11-08T04:53:55Z) - PHemoNet: A Multimodal Network for Physiological Signals [9.54382727022316]
生理的信号からのマルチモーダル感情認識のための完全超複雑ネットワークであるPHemoNetを紹介する。
アーキテクチャは、モダリティ特異的エンコーダと融合モジュールとから構成される。
提案手法は,MAHNOB-HCIデータセットの最先端モデルより優れている。
論文 参考訳(メタデータ) (2024-09-13T21:14:27Z) - Investigating the Generalizability of Physiological Characteristics of Anxiety [3.4036712573981607]
不安やストレスと高覚醒感情との関連が示された生理的特徴の一般化可能性を評価する。
この研究は、心電図やEDA信号からストレスと覚醒を横断する最初のクロスコーパス評価であり、ストレス検出の一般化性に関する新たな発見に寄与した。
論文 参考訳(メタデータ) (2024-01-23T16:49:54Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - fMRI from EEG is only Deep Learning away: the use of interpretable DL to
unravel EEG-fMRI relationships [68.8204255655161]
多チャンネル脳波データからいくつかの皮質下領域の活性を回復するための解釈可能な領域基底解を提案する。
我々は,皮質下核の血行動態信号の頭皮脳波予測の空間的・時間的パターンを復元する。
論文 参考訳(メタデータ) (2022-10-23T15:11:37Z) - Contrastive Learning of Subject-Invariant EEG Representations for
Cross-Subject Emotion Recognition [9.07006689672858]
本稿では、信頼度の高いクロスオブジェクト感情認識のためのISAのためのコントラスト学習法を提案する。
ISAは、異なる刺激に対して同じ刺激を受けた被験者間での脳波信号の類似性を最大化する。
脳波信号から物体間表現を学習するために,深部空間畳み込み層と時間畳み込み層を有する畳み込みニューラルネットワークを適用した。
論文 参考訳(メタデータ) (2021-09-20T14:13:45Z) - Non-contact Pain Recognition from Video Sequences with Remote
Physiological Measurements Prediction [53.03469655641418]
痛み認識のための非接触方式で外観変化と生理的手がかりの両方を符号化する新しいマルチタスク学習フレームワークを提案する。
我々は、一般に利用可能な痛みデータベース上で、非接触痛認識の最先端性能を確立する。
論文 参考訳(メタデータ) (2021-05-18T20:47:45Z) - Video-based Remote Physiological Measurement via Cross-verified Feature
Disentangling [121.50704279659253]
非生理的表現と生理的特徴を混同するための横断的特徴分離戦略を提案する。
次に, 蒸留された生理特性を用いて, 頑健なマルチタスク生理測定を行った。
歪んだ特徴は、最終的に平均HR値やr信号のような複数の生理的信号の合同予測に使用される。
論文 参考訳(メタデータ) (2020-07-16T09:39:17Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z) - Ensemble emotion recognizing with multiple modal physiological signals [9.406420908566517]
異なる感情に対する複数のモーダル生理的信号を用いた感情分類モデルを提案する。
DEAPデータセットのベンチマークで実験を行う。
4段階のタスクでは、平均的な分類精度は90.74であり、安定性がよい。
論文 参考訳(メタデータ) (2020-01-01T11:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。