論文の概要: A Survey on Physiological Signal Based Emotion Recognition
- arxiv url: http://arxiv.org/abs/2205.10466v1
- Date: Fri, 20 May 2022 23:59:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-05 20:13:51.530500
- Title: A Survey on Physiological Signal Based Emotion Recognition
- Title(参考訳): 生理的信号に基づく感情認識に関する調査
- Authors: Zeeshan Ahmad, Naimul Khan
- Abstract要約: 生理的信号に基づく感情認識に関する既存のレビュー論文は、感情認識のワークフローに関わる通常のステップのみを調査した。
本稿では、物体間データ分散が感情認識に与える影響、感情認識のための重要なデータアノテーション技術とその比較、各生理的信号に対するデータ前処理技術、感情認識モデルの一般化を改善するデータ分割技術および異なるマルチモーダル融合技術とその比較について述べる。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physiological Signals are the most reliable form of signals for emotion
recognition, as they cannot be controlled deliberately by the subject. Existing
review papers on emotion recognition based on physiological signals surveyed
only the regular steps involved in the workflow of emotion recognition such as
preprocessing, feature extraction, and classification. While these are
important steps, such steps are required for any signal processing application.
Emotion recognition poses its own set of challenges that are very important to
address for a robust system. Thus, to bridge the gap in the existing
literature, in this paper, we review the effect of inter-subject data variance
on emotion recognition, important data annotation techniques for emotion
recognition and their comparison, data preprocessing techniques for each
physiological signal, data splitting techniques for improving the
generalization of emotion recognition models and different multimodal fusion
techniques and their comparison. Finally we discuss key challenges and future
directions in this field.
- Abstract(参考訳): 生理学的信号は、被験者によって意図的に制御できないため、感情認識のための最も信頼できる信号である。
生理的信号に基づく感情認識に関する既存のレビュー論文は、前処理、特徴抽出、分類などの感情認識のワークフローに関わる通常のステップのみを調査した。
これらは重要なステップであるが、信号処理アプリケーションではそのようなステップが必要である。
感情認識は、強固なシステムに対処する上で非常に重要な、独自の課題を提起します。
そこで,既存の文献のギャップを埋めるために,本論文では,感情認識におけるオブジェクト間データ分散の効果,感情認識における重要なデータアノテーション技術とその比較,各生理的信号に対するデータ前処理技術,感情認識モデルの一般化と異なるマルチモーダル融合技術とその比較について概説する。
最後に,この分野における課題と今後の方向性について考察する。
関連論文リスト
- Multi-modal Mood Reader: Pre-trained Model Empowers Cross-Subject Emotion Recognition [23.505616142198487]
我々は、クロスオブジェクト感情認識のための訓練済みモデルに基づくMultimodal Mood Readerを開発した。
このモデルは、大規模データセットの事前学習を通じて、脳波信号の普遍的な潜在表現を学習する。
公開データセットに関する大規模な実験は、クロスオブジェクト感情認識タスクにおけるMood Readerの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-28T14:31:11Z) - Emotion recognition based on multi-modal electrophysiology multi-head
attention Contrastive Learning [3.2536246345549538]
自己教師型コントラスト学習に基づくマルチモーダル感情認識手法ME-MHACLを提案する。
訓練された特徴抽出器をラベル付き電気生理学的信号に適用し、特徴融合に多頭部注意機構を用いる。
本手法は,感情認識タスクにおける既存のベンチマーク手法よりも優れ,個人間一般化能力に優れていた。
論文 参考訳(メタデータ) (2023-07-12T05:55:40Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Contrastive Learning of Subject-Invariant EEG Representations for
Cross-Subject Emotion Recognition [9.07006689672858]
本稿では、信頼度の高いクロスオブジェクト感情認識のためのISAのためのコントラスト学習法を提案する。
ISAは、異なる刺激に対して同じ刺激を受けた被験者間での脳波信号の類似性を最大化する。
脳波信号から物体間表現を学習するために,深部空間畳み込み層と時間畳み込み層を有する畳み込みニューラルネットワークを適用した。
論文 参考訳(メタデータ) (2021-09-20T14:13:45Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Acted vs. Improvised: Domain Adaptation for Elicitation Approaches in
Audio-Visual Emotion Recognition [29.916609743097215]
一般化された感情認識システムの開発における主な課題は、ラベル付きデータの不足とゴールドスタンダード参照の欠如である。
本研究では,感情誘発アプローチをドメイン知識とみなし,感情発話におけるドメイン伝達学習技術を探求する。
論文 参考訳(メタデータ) (2021-04-05T15:59:31Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Target Guided Emotion Aware Chat Machine [58.8346820846765]
意味レベルと感情レベルにおける投稿に対する応答の整合性は、人間のような対話を提供する対話システムにとって不可欠である。
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-11-15T01:55:37Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。