論文の概要: Cross-domain EEG-based Emotion Recognition with Contrastive Learning
- arxiv url: http://arxiv.org/abs/2511.05293v1
- Date: Fri, 07 Nov 2025 14:55:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.799336
- Title: Cross-domain EEG-based Emotion Recognition with Contrastive Learning
- Title(参考訳): コントラスト学習を用いたクロスドメイン脳波を用いた感情認識
- Authors: Rui Yan, Yibo Li, Han Ding, Fei Wang,
- Abstract要約: この研究は、CLIPフレームワーク内のEEGテキストマッチングタスクとして認識を再構成するEmotionCLIPを導入している。
調整されたバックボーンであるSST-LegoViTは、マルチスケールの畳み込みとトランスフォーマーモジュールを使用して空間、スペクトル、時間的特徴をキャプチャする。
- 参考スコア(独自算出の注目度): 18.994691970541997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Electroencephalogram (EEG)-based emotion recognition is vital for affective computing but faces challenges in feature utilization and cross-domain generalization. This work introduces EmotionCLIP, which reformulates recognition as an EEG-text matching task within the CLIP framework. A tailored backbone, SST-LegoViT, captures spatial, spectral, and temporal features using multi-scale convolution and Transformer modules. Experiments on SEED and SEED-IV datasets show superior cross-subject accuracies of 88.69% and 73.50%, and cross-time accuracies of 88.46% and 77.54%, outperforming existing models. Results demonstrate the effectiveness of multimodal contrastive learning for robust EEG emotion recognition.
- Abstract(参考訳): 脳波(EEG)に基づく感情認識は、感情コンピューティングには不可欠であるが、機能利用とクロスドメイン一般化の課題に直面している。
この研究は、CLIPフレームワーク内のEEGテキストマッチングタスクとして認識を再構成するEmotionCLIPを導入している。
調整されたバックボーンであるSST-LegoViTは、マルチスケールの畳み込みとトランスフォーマーモジュールを使用して空間、スペクトル、時間的特徴をキャプチャする。
SEEDとSEED-IVデータセットの実験では、88.69%と73.50%のクロスオブジェクト精度、88.46%と77.54%のクロスタイム精度が既存のモデルより優れていた。
その結果,マルチモーダル・コントラスト学習の有効性が示された。
関連論文リスト
- CRIA: A Cross-View Interaction and Instance-Adapted Pre-training Framework for Generalizable EEG Representations [52.251569042852815]
CRIAは、可変長および可変チャネルコーディングを使用して、異なるデータセット間でEEGデータの統一表現を実現する適応フレームワークである。
このモデルでは、時間的、スペクトル的、空間的特徴を効果的に融合させるクロスアテンション機構を採用している。
テンプル大学脳波コーパスとCHB-MITデータセットによる実験結果から、CRIAは既存の方法よりも、同じ事前学習条件で優れていることが示された。
論文 参考訳(メタデータ) (2025-06-19T06:31:08Z) - CMCRD: Cross-Modal Contrastive Representation Distillation for Emotion Recognition [15.72347392139404]
クロスモーダルコントラスト表現蒸留(CMCRD)は、事前訓練された眼球運動分類モデルを用いて、脳波分類モデルのトレーニングを支援する。
テスト中は、脳波信号(または眼球運動信号)のみを取得し、マルチモーダルデータを必要としない。
EEGのみのモデルと比較すると、平均分類精度は約6.2%向上した。
論文 参考訳(メタデータ) (2025-04-12T13:56:20Z) - Leveraging Cross-Attention Transformer and Multi-Feature Fusion for Cross-Linguistic Speech Emotion Recognition [60.58049741496505]
音声感情認識(SER)は、人間とコンピュータの相互作用を強化する上で重要な役割を担っている。
本稿では,HuBERT,MFCC,および韻律特性を組み合わせたHuMP-CATを提案する。
HMP-CATは、ターゲットデータセットから少量の音声でソースモデルを微調整することにより、平均78.75%の精度が得られることを示す。
論文 参考訳(メタデータ) (2025-01-06T14:31:25Z) - A Supervised Information Enhanced Multi-Granularity Contrastive Learning Framework for EEG Based Emotion Recognition [14.199298112101802]
本研究では,脳波に基づく感情認識(SICLEER, Supervised Info-enhanced Contrastive Learning)のための新しいコントラスト学習フレームワークを提案する。
自己教師付きコントラスト学習損失と教師付き分類損失を組み合わせた共同学習モデルを提案する。
論文 参考訳(メタデータ) (2024-05-12T11:51:00Z) - Joint Contrastive Learning with Feature Alignment for Cross-Corpus EEG-based Emotion Recognition [2.1645626994550664]
我々は,クロスコーパス脳波に基づく感情認識に対処するために,特徴アライメントを用いた新しいコントラスト学習フレームワークを提案する。
事前学習段階では、脳波信号の一般化可能な時間周波数表現を特徴付けるために、共同領域コントラスト学習戦略を導入する。
微調整の段階では、JCFAは脳電極間の構造的接続を考慮した下流タスクと共に洗練される。
論文 参考訳(メタデータ) (2024-04-15T08:21:17Z) - GMSS: Graph-Based Multi-Task Self-Supervised Learning for EEG Emotion
Recognition [48.02958969607864]
本稿では,脳波感情認識のためのグラフベースマルチタスク自己教師学習モデル(GMSS)を提案する。
複数のタスクから同時に学習することで、GMSSはすべてのタスクをキャプチャする表現を見つけることができる。
SEED、SEED-IV、MPEDデータセットの実験により、提案モデルが脳波の感情信号に対するより差別的で一般的な特徴を学習する際、顕著な利点があることが示されている。
論文 参考訳(メタデータ) (2022-04-12T03:37:21Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Contrastive Learning of Subject-Invariant EEG Representations for
Cross-Subject Emotion Recognition [9.07006689672858]
本稿では、信頼度の高いクロスオブジェクト感情認識のためのISAのためのコントラスト学習法を提案する。
ISAは、異なる刺激に対して同じ刺激を受けた被験者間での脳波信号の類似性を最大化する。
脳波信号から物体間表現を学習するために,深部空間畳み込み層と時間畳み込み層を有する畳み込みニューラルネットワークを適用した。
論文 参考訳(メタデータ) (2021-09-20T14:13:45Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - Investigating EEG-Based Functional Connectivity Patterns for Multimodal
Emotion Recognition [8.356765961526955]
本稿では, 強度, クラスタリング, 係数, 固有ベクトル中心性という3つの機能接続ネットワーク特性について検討する。
感情認識における脳波接続機能の識別能力は,3つの公開脳波データセットで評価される。
脳波の機能的接続特徴と眼球運動や生理的信号の特徴を組み合わせたマルチモーダル感情認識モデルを構築した。
論文 参考訳(メタデータ) (2020-04-04T16:51:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。