論文の概要: Transformer-Based Self-Supervised Learning for Emotion Recognition
- arxiv url: http://arxiv.org/abs/2204.05103v1
- Date: Fri, 8 Apr 2022 07:14:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 19:00:24.023150
- Title: Transformer-Based Self-Supervised Learning for Emotion Recognition
- Title(参考訳): 感情認識のためのトランスフォーマベース自己教師付き学習
- Authors: Juan Vazquez-Rodriguez (M-PSI), Gr\'egoire Lefebvre, Julien Cumin,
James L. Crowley (M-PSI)
- Abstract要約: 心電図(ECG)を感情認識に利用するトランスフォーマーモデルを提案する。
感情ラベル付きデータセットの比較的小さなサイズを克服するために,自己教師型学習を採用する。
AMIGOSの心電図信号を用いた感情認識の最先端性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to exploit representations of time-series signals, such as
physiological signals, it is essential that these representations capture
relevant information from the whole signal. In this work, we propose to use a
Transformer-based model to process electrocardiograms (ECG) for emotion
recognition. Attention mechanisms of the Transformer can be used to build
contextualized representations for a signal, giving more importance to relevant
parts. These representations may then be processed with a fully-connected
network to predict emotions. To overcome the relatively small size of datasets
with emotional labels, we employ self-supervised learning. We gathered several
ECG datasets with no labels of emotion to pre-train our model, which we then
fine-tuned for emotion recognition on the AMIGOS dataset. We show that our
approach reaches state-of-the-art performances for emotion recognition using
ECG signals on AMIGOS. More generally, our experiments show that transformers
and pre-training are promising strategies for emotion recognition with
physiological signals.
- Abstract(参考訳): 生理的信号などの時系列信号の表現を利用するためには、これらの表現が信号全体から関連する情報を取得することが不可欠である。
本研究では,心電図(心電図)を用いて感情認識を行うトランスフォーマモデルを提案する。
Transformerのアテンションメカニズムは、信号のコンテキスト化された表現を構築するために使用することができ、関連する部分にもっと重要になる。
これらの表現は、感情を予測するために完全に接続されたネットワークで処理される。
感情ラベル付きデータセットの比較的小さなサイズを克服するために、自己教師あり学習を用いる。
我々は、感情のラベルのないいくつかのECGデータセットを収集し、モデルを事前訓練し、AMIGOSデータセット上で感情認識のために微調整した。
AMIGOSの心電図信号を用いた感情認識の最先端性能を示す。
より一般に, トランスフォーマーとプレトレーニングは, 生理的信号を用いた感情認識に有望な戦略であることが示された。
関連論文リスト
- Smile upon the Face but Sadness in the Eyes: Emotion Recognition based on Facial Expressions and Eye Behaviors [63.194053817609024]
視覚行動は、視覚行動支援型マルチモーダル感情認識データセットを作成するための重要な感情的手がかりとなる。
EMERデータセットに感情認識(ER)と表情認識(FER)の両方のアノテーションを初めて提供する。
具体的には、ERとFERの両方のパフォーマンスを同時に向上する新しいEMERTアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-11-08T04:53:55Z) - Decoding Human Emotions: Analyzing Multi-Channel EEG Data using LSTM Networks [0.0]
本研究では、Long Short-Term Memory (LSTM) ネットワークを用いて脳波信号を解析することにより、感情状態分類の予測精度を向上することを目的とする。
DEAPとして知られる多チャンネル脳波記録の一般的なデータセットを用いて、LSTMネットワークの特性を活用して、脳波信号データ内の時間的依存関係を処理する。
感情認識モデルの能力は, それぞれ89.89%, 90.33%, 90.70%, 90.54%であった。
論文 参考訳(メタデータ) (2024-08-19T18:10:47Z) - A Unified Transformer-based Network for multimodal Emotion Recognition [4.07926531936425]
本稿では,心電図/信号の2次元表現と顔情報を組み合わせることで,覚醒空間内の感情を分類するトランスフォーマーに基づく手法を提案する。
我々のモデルは最先端技術に匹敵する結果をもたらす。
論文 参考訳(メタデータ) (2023-08-27T17:30:56Z) - CIT-EmotionNet: CNN Interactive Transformer Network for EEG Emotion
Recognition [6.208851183775046]
我々はCIT-EmotionNetとして知られる脳波認識のための新しいCNN Interactive Transformer Networkを提案する。
我々は、生の脳波信号を入力として空間周波数表現に変換し、その後、コンボリューショナルニューラルネットワーク(CNN)とトランスフォーマーを1つのフレームワークに並列に統合する。
提案されたCIT-EmotionNetは最先端の手法より優れており、2つの公開データセットで平均認識精度98.57%と92.09%を達成している。
論文 参考訳(メタデータ) (2023-05-07T16:27:09Z) - EEG2Vec: Learning Affective EEG Representations via Variational
Autoencoders [27.3162026528455]
我々は、感情的な刺激に反応して、潜在ベクトル空間におけるニューラルデータを表現することが、両方の感情状態を予測するのに役立つかどうかを考察する。
脳波データから生成的識別的表現を学習するための条件付き変分オートエンコーダベースのフレームワークであるEEG2Vecを提案する。
論文 参考訳(メタデータ) (2022-07-16T19:25:29Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Self-supervised ECG Representation Learning for Emotion Recognition [25.305949034527202]
我々は心電図に基づく感情認識のための自己教師型深層マルチタスク学習フレームワークを利用する。
提案手法は,完全教師付き学習を用いて学習したネットワークと比較して,性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-02-04T17:15:37Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。