論文の概要: Contrastive Learning of Subject-Invariant EEG Representations for
Cross-Subject Emotion Recognition
- arxiv url: http://arxiv.org/abs/2109.09559v1
- Date: Mon, 20 Sep 2021 14:13:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 15:59:19.592270
- Title: Contrastive Learning of Subject-Invariant EEG Representations for
Cross-Subject Emotion Recognition
- Title(参考訳): クロスサブジェクト感情認識のための主観不変脳波表現のコントラスト学習
- Authors: Xinke Shen, Xianggen Liu, Xin Hu, Dan Zhang, Sen Song
- Abstract要約: 本稿では、信頼度の高いクロスオブジェクト感情認識のためのISAのためのコントラスト学習法を提案する。
ISAは、異なる刺激に対して同じ刺激を受けた被験者間での脳波信号の類似性を最大化する。
脳波信号から物体間表現を学習するために,深部空間畳み込み層と時間畳み込み層を有する畳み込みニューラルネットワークを適用した。
- 参考スコア(独自算出の注目度): 9.07006689672858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotion recognition plays a vital role in human-machine interactions and
daily healthcare. EEG signals have been reported to be informative and reliable
for emotion recognition in recent years. However, the inter-subject variability
of emotion-related EEG signals poses a great challenge for the practical use of
EEG-based emotion recognition. Inspired by the recent neuroscience studies on
inter-subject correlation, we proposed a Contrastive Learning method for
Inter-Subject Alignment (CLISA) for reliable cross-subject emotion recognition.
Contrastive learning was employed to minimize the inter-subject differences by
maximizing the similarity in EEG signals across subjects when they received the
same stimuli in contrast to different ones. Specifically, a convolutional
neural network with depthwise spatial convolution and temporal convolution
layers was applied to learn inter-subject aligned spatiotemporal
representations from raw EEG signals. Then the aligned representations were
used to extract differential entropy features for emotion classification. The
performance of the proposed method was evaluated on our THU-EP dataset with 80
subjects and the publicly available SEED dataset with 15 subjects. Comparable
or better cross-subject emotion recognition accuracy (i.e., 72.1% and 47.0% for
binary and nine-class classification, respectively, on the THU-EP dataset and
86.3% on the SEED dataset for three-class classification) was achieved as
compared to the state-of-the-art methods. The proposed method could be
generalized well to unseen emotional stimuli as well. The CLISA method is
therefore expected to considerably increase the practicality of EEG-based
emotion recognition by operating in a "plug-and-play" manner. Furthermore, the
learned spatiotemporal representations by CLISA could provide insights into the
neural mechanisms of human emotion processing.
- Abstract(参考訳): 感情認識は、人間と機械の相互作用と日々の医療において重要な役割を果たす。
近年、脳波信号は感情認識に有益で信頼性が高いと報告されている。
しかし、感情関連脳波信号の物体間変動は、脳波に基づく感情認識の実用化に大きな課題をもたらす。
近年のサブジェクト間相関に関する神経科学研究に触発されて,信頼できるクロスサブジェクト感情認識のためのコントラスト学習法を提案した。
異なる被験者に対して同じ刺激を受けた被験者間での脳波信号の類似性を最大化することにより、物体間差を最小限に抑えるためにコントラスト学習を用いた。
具体的には,空間的畳み込み層と時間的畳み込み層を有する畳み込みニューラルネットワークを用いて,脳波信号からサブジェクト間アラインされた時空間表現を学習した。
次に、アライメント表現を用いて感情分類のための差分エントロピー特徴を抽出した。
提案手法の性能は,80被験者のTHU-EPデータセットと15被験者のSEEDデータセットを用いて評価した。
比較対象感情認識精度(thu-epデータセットでは72.1%、二分分類では47.0%、三分分類では86.3%)は最先端法と比較して達成された。
提案手法は, 感情刺激の見当たらない場合にも有効である。
したがって,CLISA法は「プラグ・アンド・プレイ」方式で操作することで,脳波に基づく感情認識の実用性を大幅に向上することが期待されている。
さらに、CLISAによる学習時空間表現は、人間の感情処理の神経機構に関する洞察を与えることができる。
関連論文リスト
- Multi-modal Mood Reader: Pre-trained Model Empowers Cross-Subject Emotion Recognition [23.505616142198487]
我々は、クロスオブジェクト感情認識のための訓練済みモデルに基づくMultimodal Mood Readerを開発した。
このモデルは、大規模データセットの事前学習を通じて、脳波信号の普遍的な潜在表現を学習する。
公開データセットに関する大規模な実験は、クロスオブジェクト感情認識タスクにおけるMood Readerの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-28T14:31:11Z) - A Supervised Information Enhanced Multi-Granularity Contrastive Learning Framework for EEG Based Emotion Recognition [14.199298112101802]
本研究では,脳波に基づく感情認識(SICLEER, Supervised Info-enhanced Contrastive Learning)のための新しいコントラスト学習フレームワークを提案する。
自己教師付きコントラスト学習損失と教師付き分類損失を組み合わせた共同学習モデルを提案する。
論文 参考訳(メタデータ) (2024-05-12T11:51:00Z) - Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - Joint Contrastive Learning with Feature Alignment for Cross-Corpus EEG-based Emotion Recognition [2.1645626994550664]
我々は,クロスコーパス脳波に基づく感情認識に対処するために,特徴アライメントを用いた新しいコントラスト学習フレームワークを提案する。
事前学習段階では、脳波信号の一般化可能な時間周波数表現を特徴付けるために、共同領域コントラスト学習戦略を導入する。
微調整の段階では、JCFAは脳電極間の構造的接続を考慮した下流タスクと共に洗練される。
論文 参考訳(メタデータ) (2024-04-15T08:21:17Z) - A Knowledge-Driven Cross-view Contrastive Learning for EEG
Representation [48.85731427874065]
本稿では,限られたラベルを持つ脳波から効果的な表現を抽出する知識駆動型クロスビューコントラスト学習フレームワーク(KDC2)を提案する。
KDC2法は脳波信号の頭皮と神経のビューを生成し、脳活動の内部および外部の表現をシミュレートする。
ニューラル情報整合性理論に基づく事前のニューラル知識をモデル化することにより、提案手法は不変かつ相補的なニューラル知識を抽出し、複合表現を生成する。
論文 参考訳(メタデータ) (2023-09-21T08:53:51Z) - fMRI from EEG is only Deep Learning away: the use of interpretable DL to
unravel EEG-fMRI relationships [68.8204255655161]
多チャンネル脳波データからいくつかの皮質下領域の活性を回復するための解釈可能な領域基底解を提案する。
我々は,皮質下核の血行動態信号の頭皮脳波予測の空間的・時間的パターンを復元する。
論文 参考訳(メタデータ) (2022-10-23T15:11:37Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - EEG-based Cross-Subject Driver Drowsiness Recognition with an
Interpretable Convolutional Neural Network [0.0]
我々は,新しい畳み込みニューラルネットワークと解釈手法を組み合わせることで,分類の重要な特徴のサンプルワイズ分析を可能にする。
その結果,11名の被験者に対して平均78.35%の精度が得られた。
論文 参考訳(メタデータ) (2021-05-30T14:47:20Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z) - Investigating EEG-Based Functional Connectivity Patterns for Multimodal
Emotion Recognition [8.356765961526955]
本稿では, 強度, クラスタリング, 係数, 固有ベクトル中心性という3つの機能接続ネットワーク特性について検討する。
感情認識における脳波接続機能の識別能力は,3つの公開脳波データセットで評価される。
脳波の機能的接続特徴と眼球運動や生理的信号の特徴を組み合わせたマルチモーダル感情認識モデルを構築した。
論文 参考訳(メタデータ) (2020-04-04T16:51:56Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。