論文の概要: MUSER: MUltimodal Stress Detection using Emotion Recognition as an
Auxiliary Task
- arxiv url: http://arxiv.org/abs/2105.08146v1
- Date: Mon, 17 May 2021 20:24:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 03:18:03.725227
- Title: MUSER: MUltimodal Stress Detection using Emotion Recognition as an
Auxiliary Task
- Title(参考訳): MUSER:感情認識を補助課題として用いたムチモダル応力検出
- Authors: Yiqun Yao, Michalis Papakostas, Mihai Burzo, Mohamed Abouelenien, Rada
Mihalcea
- Abstract要約: ストレスと感情は人間の感情状態であり、ストレスは感情の制御と発現に重要な影響を与えることが証明されている。
本研究では,ストレス検出を改善するための補助タスクとして,感情認識の有用性を検討する。
本稿では,高速な動的サンプリング戦略を備えたトランスフォーマーモデルアーキテクチャとマルチタスク学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 22.80682208862559
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The capability to automatically detect human stress can benefit artificial
intelligent agents involved in affective computing and human-computer
interaction. Stress and emotion are both human affective states, and stress has
proven to have important implications on the regulation and expression of
emotion. Although a series of methods have been established for multimodal
stress detection, limited steps have been taken to explore the underlying
inter-dependence between stress and emotion. In this work, we investigate the
value of emotion recognition as an auxiliary task to improve stress detection.
We propose MUSER -- a transformer-based model architecture and a novel
multi-task learning algorithm with speed-based dynamic sampling strategy.
Evaluations on the Multimodal Stressed Emotion (MuSE) dataset show that our
model is effective for stress detection with both internal and external
auxiliary tasks, and achieves state-of-the-art results.
- Abstract(参考訳): 人間のストレスを自動的に検出する能力は、感情的なコンピューティングと人間とコンピューターの相互作用に関わる人工知能エージェントに恩恵をもたらす。
ストレスと感情は人間の感情状態であり、ストレスは感情の制御と発現に重要な影響を与えることが証明されている。
マルチモーダルストレス検出のための一連の手法が確立されているが、ストレスと感情の相互依存性を調査するための限られた手順が採られている。
本研究では,ストレス検出を補助するタスクとして,感情認識の価値を検討する。
MUSER - トランスフォーマーに基づくモデルアーキテクチャと,高速な動的サンプリング戦略を備えた新しいマルチタスク学習アルゴリズムを提案する。
また,Multimodal Stressed Emotion (MuSE) データセットの評価結果から,本モデルが内部および外部の補助作業のストレス検出に有効であることを示す。
関連論文リスト
- StressPrompt: Does Stress Impact Large Language Models and Human Performance Similarly? [7.573284169975824]
本研究では,Large Language Models (LLMs) がヒトに類似したストレス応答を示すかを検討する。
我々はストレスプロンプトと呼ばれる新しいプロンプトを開発し、様々なレベルのストレスを誘発するように設計された。
この結果は、LLMが人間と同様に、Yerkes-Dodson法則と一致して、適度なストレスの下で最適に機能することを示唆している。
論文 参考訳(メタデータ) (2024-09-14T08:32:31Z) - Self-supervised Gait-based Emotion Representation Learning from Selective Strongly Augmented Skeleton Sequences [4.740624855896404]
自己教師型歩行に基づく感情表現のための選択的強強化を利用したコントラスト学習フレームワークを提案する。
提案手法はEmotion-Gait (E-Gait) と Emilya のデータセットで検証され, 異なる評価プロトコル下での最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-05-08T09:13:10Z) - Dynamic Modality and View Selection for Multimodal Emotion Recognition with Missing Modalities [46.543216927386005]
音声(声)や表情(画像)などの複数のチャンネルは、人間の感情を理解するのに不可欠である。
重要なハードルのひとつは、AIモデルが特定のモダリティの欠如を管理する方法だ。
本研究の中心は,1つのモダリティの欠如に直面した2つの戦略の性能とレジリエンスを評価することである。
論文 参考訳(メタデータ) (2024-04-18T15:18:14Z) - Functional Graph Contrastive Learning of Hyperscanning EEG Reveals
Emotional Contagion Evoked by Stereotype-Based Stressors [1.8925617030516924]
本研究では,女性ペア間の協調的問題解決作業におけるステレオタイプベースストレス(SBS)の文脈に焦点を当てた。
本研究は、感情伝染の解明を通じて、その基盤となるメカニズムと効果を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2023-08-22T09:04:14Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - Employing Multimodal Machine Learning for Stress Detection [8.430502131775722]
メンタルウェルネスは、今日の世界で最も無視されているが決定的な側面の1つである。
本研究では、人の作業行動とストレスレベルを監視するために、マルチモーダルなAIベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-15T14:34:16Z) - Multimodal Feature Extraction and Fusion for Emotional Reaction
Intensity Estimation and Expression Classification in Videos with
Transformers [47.16005553291036]
我々は,野生(ABAW)2023における2つの影響行動分析のサブチャレンジに対して,その解決策を提示する。
表現分類チャレンジでは,分類の課題を効果的に処理する合理化アプローチを提案する。
これらの特徴を研究、分析、組み合わせることで、マルチモーダルコンテキストにおける感情予測のためのモデルの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2023-03-16T09:03:17Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。