論文の概要: MUSER: MUltimodal Stress Detection using Emotion Recognition as an
Auxiliary Task
- arxiv url: http://arxiv.org/abs/2105.08146v1
- Date: Mon, 17 May 2021 20:24:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 03:18:03.725227
- Title: MUSER: MUltimodal Stress Detection using Emotion Recognition as an
Auxiliary Task
- Title(参考訳): MUSER:感情認識を補助課題として用いたムチモダル応力検出
- Authors: Yiqun Yao, Michalis Papakostas, Mihai Burzo, Mohamed Abouelenien, Rada
Mihalcea
- Abstract要約: ストレスと感情は人間の感情状態であり、ストレスは感情の制御と発現に重要な影響を与えることが証明されている。
本研究では,ストレス検出を改善するための補助タスクとして,感情認識の有用性を検討する。
本稿では,高速な動的サンプリング戦略を備えたトランスフォーマーモデルアーキテクチャとマルチタスク学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 22.80682208862559
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The capability to automatically detect human stress can benefit artificial
intelligent agents involved in affective computing and human-computer
interaction. Stress and emotion are both human affective states, and stress has
proven to have important implications on the regulation and expression of
emotion. Although a series of methods have been established for multimodal
stress detection, limited steps have been taken to explore the underlying
inter-dependence between stress and emotion. In this work, we investigate the
value of emotion recognition as an auxiliary task to improve stress detection.
We propose MUSER -- a transformer-based model architecture and a novel
multi-task learning algorithm with speed-based dynamic sampling strategy.
Evaluations on the Multimodal Stressed Emotion (MuSE) dataset show that our
model is effective for stress detection with both internal and external
auxiliary tasks, and achieves state-of-the-art results.
- Abstract(参考訳): 人間のストレスを自動的に検出する能力は、感情的なコンピューティングと人間とコンピューターの相互作用に関わる人工知能エージェントに恩恵をもたらす。
ストレスと感情は人間の感情状態であり、ストレスは感情の制御と発現に重要な影響を与えることが証明されている。
マルチモーダルストレス検出のための一連の手法が確立されているが、ストレスと感情の相互依存性を調査するための限られた手順が採られている。
本研究では,ストレス検出を補助するタスクとして,感情認識の価値を検討する。
MUSER - トランスフォーマーに基づくモデルアーキテクチャと,高速な動的サンプリング戦略を備えた新しいマルチタスク学習アルゴリズムを提案する。
また,Multimodal Stressed Emotion (MuSE) データセットの評価結果から,本モデルが内部および外部の補助作業のストレス検出に有効であることを示す。
関連論文リスト
- Multimodal Stress Detection Using Facial Landmarks and Biometric Signals [1.0124625066746595]
マルチモーダル学習は、単一の信号に頼るのではなく、各モーダルの強さに乗じることを目的としている。
本稿では,顔のランドマークと生体信号を統合したストレス検出のためのマルチモーダル学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-06T23:20:30Z) - Functional Graph Contrastive Learning of Hyperscanning EEG Reveals
Emotional Contagion Evoked by Stereotype-Based Stressors [1.8925617030516924]
本研究では,女性ペア間の協調的問題解決作業におけるステレオタイプベースストレス(SBS)の文脈に焦点を当てた。
本研究は、感情伝染の解明を通じて、その基盤となるメカニズムと効果を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2023-08-22T09:04:14Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - Employing Multimodal Machine Learning for Stress Detection [8.430502131775722]
メンタルウェルネスは、今日の世界で最も無視されているが決定的な側面の1つである。
本研究では、人の作業行動とストレスレベルを監視するために、マルチモーダルなAIベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-15T14:34:16Z) - Multimodal Feature Extraction and Fusion for Emotional Reaction
Intensity Estimation and Expression Classification in Videos with
Transformers [47.16005553291036]
我々は,野生(ABAW)2023における2つの影響行動分析のサブチャレンジに対して,その解決策を提示する。
表現分類チャレンジでは,分類の課題を効果的に処理する合理化アプローチを提案する。
これらの特徴を研究、分析、組み合わせることで、マルチモーダルコンテキストにおける感情予測のためのモデルの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2023-03-16T09:03:17Z) - Hybrid Handcrafted and Learnable Audio Representation for Analysis of
Speech Under Cognitive and Physical Load [17.394964035035866]
音声におけるタスク負荷検出のための5つのデータセットを提案する。
音声記録は、ボランティアのコホートに認知的ストレスまたは身体的ストレスが引き起こされたとして収集された。
このデータセットを用いて、新たな自己教師型音声表現の設計と評価を行った。
論文 参考訳(メタデータ) (2022-03-30T19:43:21Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。