論文の概要: Self-supervised ECG Representation Learning for Emotion Recognition
- arxiv url: http://arxiv.org/abs/2002.03898v2
- Date: Mon, 10 Aug 2020 07:09:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 03:02:06.610932
- Title: Self-supervised ECG Representation Learning for Emotion Recognition
- Title(参考訳): 感情認識のための自己教師付きECG表現学習
- Authors: Pritam Sarkar and Ali Etemad
- Abstract要約: 我々は心電図に基づく感情認識のための自己教師型深層マルチタスク学習フレームワークを利用する。
提案手法は,完全教師付き学習を用いて学習したネットワークと比較して,性能が大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 25.305949034527202
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We exploit a self-supervised deep multi-task learning framework for
electrocardiogram (ECG) -based emotion recognition. The proposed solution
consists of two stages of learning a) learning ECG representations and b)
learning to classify emotions. ECG representations are learned by a signal
transformation recognition network. The network learns high-level abstract
representations from unlabeled ECG data. Six different signal transformations
are applied to the ECG signals, and transformation recognition is performed as
pretext tasks. Training the model on pretext tasks helps the network learn
spatiotemporal representations that generalize well across different datasets
and different emotion categories. We transfer the weights of the
self-supervised network to an emotion recognition network, where the
convolutional layers are kept frozen and the dense layers are trained with
labelled ECG data. We show that the proposed solution considerably improves the
performance compared to a network trained using fully-supervised learning. New
state-of-the-art results are set in classification of arousal, valence,
affective states, and stress for the four utilized datasets. Extensive
experiments are performed, providing interesting insights into the impact of
using a multi-task self-supervised structure instead of a single-task model, as
well as the optimum level of difficulty required for the pretext
self-supervised tasks.
- Abstract(参考訳): 我々は心電図に基づく感情認識のための自己教師型深層マルチタスク学習フレームワークを利用する。
提案する解法は2段階の学習から成り立っている
a)ecg表現の学習と
b) 感情を分類する学習。
ECG表現は信号変換認識ネットワークによって学習される。
ネットワークはラベルのないECGデータから高レベルの抽象表現を学習する。
ECG信号に6つの異なる信号変換を適用し、プリテキストタスクとして変換認識を行う。
プレテキストタスクでモデルをトレーニングすることは、異なるデータセットと異なる感情カテゴリで適切に一般化された時空間表現をネットワークが学習するのに役立つ。
自己教師付きネットワークの重みを感情認識ネットワークに伝達し,畳み込み層を凍結させ,ecgデータを用いて密集層を訓練する。
提案手法は,完全教師付き学習を用いて学習したネットワークと比較して,性能が大幅に向上することを示す。
新しい最先端の成果は、4つの活用されたデータセットの覚醒、原子価、情緒状態、ストレスの分類に設定される。
広範な実験が行われ、シングルタスクモデルではなくマルチタスクの自己教師付き構造が与える影響や、プリテキストの自己教師付きタスクに必要な難易度に関する興味深い洞察が提供される。
関連論文リスト
- NERULA: A Dual-Pathway Self-Supervised Learning Framework for Electrocardiogram Signal Analysis [5.8961928852930034]
本稿では,シングルリードECG信号を対象とした自己教師型フレームワークNERULAを提案する。
NERULAのデュアルパスウェイアーキテクチャは、心電図再構成と非コントラスト学習を組み合わせて、詳細な心臓の特徴を抽出する。
学習スペクトルに生成経路と識別経路を組み合わせることで、様々なタスクにおいて最先端の自己教師付き学習ベンチマークより優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2024-05-21T14:01:57Z) - Joint Contrastive Learning with Feature Alignment for Cross-Corpus EEG-based Emotion Recognition [2.1645626994550664]
我々は,クロスコーパス脳波に基づく感情認識に対処するために,特徴アライメントを用いた新しいコントラスト学習フレームワークを提案する。
事前学習段階では、脳波信号の一般化可能な時間周波数表現を特徴付けるために、共同領域コントラスト学習戦略を導入する。
微調整の段階では、JCFAは脳電極間の構造的接続を考慮した下流タスクと共に洗練される。
論文 参考訳(メタデータ) (2024-04-15T08:21:17Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - EEG-based Cognitive Load Classification using Feature Masked
Autoencoding and Emotion Transfer Learning [13.404503606887715]
脳波(EEG)を用いた認知負荷の新しい分類法を提案する。
感情関連脳波データセットの自己教師付きマスクによる自動エンコーディングを用いて、我々のモデルを事前学習する。
実験の結果,提案手法は従来の単段階完全教師付き学習よりも優れた結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-08-01T02:59:19Z) - Evaluating the structure of cognitive tasks with transfer learning [67.22168759751541]
本研究では,脳波復号処理における深層学習表現の伝達可能性について検討した。
最近リリースされた2つのEEGデータセット上で、最先端デコードモデルを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2023-07-28T14:51:09Z) - GMSS: Graph-Based Multi-Task Self-Supervised Learning for EEG Emotion
Recognition [48.02958969607864]
本稿では,脳波感情認識のためのグラフベースマルチタスク自己教師学習モデル(GMSS)を提案する。
複数のタスクから同時に学習することで、GMSSはすべてのタスクをキャプチャする表現を見つけることができる。
SEED、SEED-IV、MPEDデータセットの実験により、提案モデルが脳波の感情信号に対するより差別的で一般的な特徴を学習する際、顕著な利点があることが示されている。
論文 参考訳(メタデータ) (2022-04-12T03:37:21Z) - Transformer-Based Self-Supervised Learning for Emotion Recognition [0.0]
心電図(ECG)を感情認識に利用するトランスフォーマーモデルを提案する。
感情ラベル付きデータセットの比較的小さなサイズを克服するために,自己教師型学習を採用する。
AMIGOSの心電図信号を用いた感情認識の最先端性能を示す。
論文 参考訳(メタデータ) (2022-04-08T07:14:55Z) - Learning ECG Representations based on Manipulated Temporal-Spatial
Reverse Detection [11.615287369669971]
本稿では,ECG表現を学習する上で,単純だが効果的な手法を提案する。
ECGの時間的特性と空間的特性にインスパイアされ、元の信号を水平に、垂直に、そして水平に、そして垂直に、それぞれ反転させる。
その結果,本手法で学習したECG表現は,下流タスクにおいて顕著な性能を示すことがわかった。
論文 参考訳(メタデータ) (2022-02-25T02:01:09Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - Dynamic Graph Modeling of Simultaneous EEG and Eye-tracking Data for
Reading Task Identification [79.41619843969347]
我々は、脳波(EEG)と眼球運動(EM)データからヒトの読取意図を特定するための新しいアプローチAdaGTCNを提案する。
本稿では,AdaGTCN(Adaptive Graph Temporal Convolution Network)の手法として,Adaptive Graph Learning LayerとDeep Neighborhood Graph Convolution Layerを用いた。
このアプローチといくつかのベースラインを比較し、ZuCo 2.0データセットの6.29%の改善と広範なアブレーション実験を報告します。
論文 参考訳(メタデータ) (2021-02-21T18:19:49Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。