論文の概要: EMOD: A Unified EEG Emotion Representation Framework Leveraging V-A Guided Contrastive Learning
- arxiv url: http://arxiv.org/abs/2511.05863v2
- Date: Fri, 14 Nov 2025 08:21:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 14:38:01.76578
- Title: EMOD: A Unified EEG Emotion Representation Framework Leveraging V-A Guided Contrastive Learning
- Title(参考訳): EMOD:V-A指導型コントラスト学習を活用した統合脳波感情表現フレームワーク
- Authors: Yuning Chen, Sha Zhao, Shijian Li, Gang Pan,
- Abstract要約: 本稿では,Valence-Arousal(V-A)ガイドによるコントラスト学習を活用した統一脳波感情表現フレームワークEMODを提案する。
我々は、離散的かつ連続的な感情ラベルを統一されたV-A空間に投影し、軟弱な教師付きコントラスト損失を定式化し、潜在空間内のクラスタに感情的に類似したサンプルを奨励する。
EMODは、様々な脳波に基づく感情認識シナリオにまたがって、強い適応性と一般化を示す、最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 25.25694431911273
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion recognition from EEG signals is essential for affective computing and has been widely explored using deep learning. While recent deep learning approaches have achieved strong performance on single EEG emotion datasets, their generalization across datasets remains limited due to the heterogeneity in annotation schemes and data formats. Existing models typically require dataset-specific architectures tailored to input structure and lack semantic alignment across diverse emotion labels. To address these challenges, we propose EMOD: A Unified EEG Emotion Representation Framework Leveraging Valence-Arousal (V-A) Guided Contrastive Learning. EMOD learns transferable and emotion-aware representations from heterogeneous datasets by bridging both semantic and structural gaps. Specifically, we project discrete and continuous emotion labels into a unified V-A space and formulate a soft-weighted supervised contrastive loss that encourages emotionally similar samples to cluster in the latent space. To accommodate variable EEG formats, EMOD employs a flexible backbone comprising a Triple-Domain Encoder followed by a Spatial-Temporal Transformer, enabling robust extraction and integration of temporal, spectral, and spatial features. We pretrain EMOD on 8 public EEG datasets and evaluate its performance on three benchmark datasets. Experimental results show that EMOD achieves the state-of-the-art performance, demonstrating strong adaptability and generalization across diverse EEG-based emotion recognition scenarios.
- Abstract(参考訳): 脳波信号からの感情認識は感情コンピューティングに不可欠であり、ディープラーニングを用いて広く研究されている。
最近のディープラーニングアプローチは、単一のEEG感情データセットで強力なパフォーマンスを実現しているが、アノテーションスキームとデータフォーマットの不均一性のため、データセット間の一般化は制限されている。
既存のモデルは一般的に、入力構造に適したデータセット固有のアーキテクチャを必要とし、多様な感情ラベル間のセマンティックアライメントを欠いている。
これらの課題に対処するため、我々はEMOD:A Unified EEG Emotion Representation Framework Leveraging Valence-Arousal (V-A) Guided Contrastive Learningを提案する。
EMODは、意味的および構造的ギャップを埋めることで、異種データセットから伝達可能および感情対応表現を学習する。
具体的には、離散的かつ連続的な感情ラベルを統一されたV-A空間に投影し、軟弱な教師付きコントラスト損失を定式化し、潜在空間内のクラスタに感情的に類似したサンプルを奨励する。
可変EEGフォーマットに対応するため、EMODはトリプル・ドメイン・エンコーダとSpatial-Temporal Transformerを組み合わせた柔軟なバックボーンを使用し、時間的、スペクトル的、空間的特徴の堅牢な抽出と統合を可能にする。
我々は8つのパブリックEEGデータセット上でEMODを事前訓練し、3つのベンチマークデータセットでその性能を評価する。
実験の結果,EMODは様々な脳波に基づく感情認識シナリオに対して,強い適応性と一般化を示す。
関連論文リスト
- WaveMind: Towards a Conversational EEG Foundation Model Aligned to Textual and Visual Modalities [55.00677513249723]
脳波信号は認知過程と固有の神経状態の両方を同時に符号化する。
我々は、EEG信号とその対応するモダリティを統一意味空間にマッピングし、一般化された解釈を実現する。
結果として得られたモデルは、柔軟でオープンな会話をサポートしながら、堅牢な分類精度を示す。
論文 参考訳(メタデータ) (2025-09-26T06:21:51Z) - CRIA: A Cross-View Interaction and Instance-Adapted Pre-training Framework for Generalizable EEG Representations [52.251569042852815]
CRIAは、可変長および可変チャネルコーディングを使用して、異なるデータセット間でEEGデータの統一表現を実現する適応フレームワークである。
このモデルでは、時間的、スペクトル的、空間的特徴を効果的に融合させるクロスアテンション機構を採用している。
テンプル大学脳波コーパスとCHB-MITデータセットによる実験結果から、CRIAは既存の方法よりも、同じ事前学習条件で優れていることが示された。
論文 参考訳(メタデータ) (2025-06-19T06:31:08Z) - FACE: Few-shot Adapter with Cross-view Fusion for Cross-subject EEG Emotion Recognition [57.08108545219043]
クロスオブジェクト脳波の感情認識は、重要なオブジェクト間変動と複雑に絡み合ったオブジェクト内変動によって困難である。
最近の数発の学習パラダイムは、これらの制限に対処しようと試みているが、しばしば限られたサンプルを用いて主題固有の適応を行う際に破滅的な過度なオーバーフィッティングに遭遇する。
本稿では,脳波の感情認識のためのFACEと呼ばれるクロスビュー融合方式のマイクロショットアダプタについて紹介する。
論文 参考訳(メタデータ) (2025-03-24T03:16:52Z) - CognitionCapturer: Decoding Visual Stimuli From Human EEG Signal With Multimodal Information [61.1904164368732]
脳波信号の表現にマルチモーダルデータを完全に活用する統合フレームワークであるCognitionCapturerを提案する。
具体的には、CognitionCapturerは、各モダリティに対してモダリティエキスパートを訓練し、EEGモダリティからモダリティ情報を抽出する。
このフレームワークは生成モデルの微調整を一切必要とせず、より多くのモダリティを組み込むように拡張することができる。
論文 参考訳(メタデータ) (2024-12-13T16:27:54Z) - Joint Contrastive Learning with Feature Alignment for Cross-Corpus EEG-based Emotion Recognition [2.1645626994550664]
我々は,クロスコーパス脳波に基づく感情認識に対処するために,特徴アライメントを用いた新しいコントラスト学習フレームワークを提案する。
事前学習段階では、脳波信号の一般化可能な時間周波数表現を特徴付けるために、共同領域コントラスト学習戦略を導入する。
微調整の段階では、JCFAは脳電極間の構造的接続を考慮した下流タスクと共に洗練される。
論文 参考訳(メタデータ) (2024-04-15T08:21:17Z) - EEG-based Emotion Style Transfer Network for Cross-dataset Emotion
Recognition [45.26847258736848]
本稿では,脳波に基づく感情スタイル伝達ネットワーク(E2STN)を提案する。
E2STNは、クロスデータセットのEEG感情認識タスクにおける最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2023-08-09T16:54:40Z) - Inter Subject Emotion Recognition Using Spatio-Temporal Features From
EEG Signal [4.316570025748204]
この研究は、脳波信号から感情を独立して分類する、簡単に実装できる感情認識モデルに関するものである。
このモデルは、感情を分類するために、CNNの正規層、深さ層、分離可能な畳み込み層の組み合わせである。
精度は73.04%だった。
論文 参考訳(メタデータ) (2023-05-27T07:43:19Z) - EEGMatch: Learning with Incomplete Labels for Semi-Supervised EEG-based Cross-Subject Emotion Recognition [7.1695247553867345]
ラベル付き脳波データとラベルなし脳波データの両方を活用する新しい半教師付き学習フレームワーク(EEGMatch)を提案する。
2つのベンチマークデータベース(SEEDとSEED-IV)で大規模な実験を行う。
論文 参考訳(メタデータ) (2023-03-27T12:02:33Z) - EEG2Vec: Learning Affective EEG Representations via Variational
Autoencoders [27.3162026528455]
我々は、感情的な刺激に反応して、潜在ベクトル空間におけるニューラルデータを表現することが、両方の感情状態を予測するのに役立つかどうかを考察する。
脳波データから生成的識別的表現を学習するための条件付き変分オートエンコーダベースのフレームワークであるEEG2Vecを提案する。
論文 参考訳(メタデータ) (2022-07-16T19:25:29Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。