論文の概要: Semi-Supervised Dual-Stream Self-Attentive Adversarial Graph Contrastive
Learning for Cross-Subject EEG-based Emotion Recognition
- arxiv url: http://arxiv.org/abs/2308.11635v1
- Date: Sun, 13 Aug 2023 23:54:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-27 04:46:31.143142
- Title: Semi-Supervised Dual-Stream Self-Attentive Adversarial Graph Contrastive
Learning for Cross-Subject EEG-based Emotion Recognition
- Title(参考訳): クロスサブジェクト脳波に基づく感情認識のための半教師付き自己対向グラフコントラスト学習
- Authors: Weishan Ye, Zhiguo Zhang, Min Zhang, Fei Teng, Li Zhang, Linling Li,
Gan Huang, Jianhong Wang, Dong Ni, and Zhen Liang
- Abstract要約: DS-AGCフレームワークは、クロスオブジェクト脳波に基づく感情認識において、限定ラベル付きデータの課題に取り組むために提案されている。
提案手法は,不完全ラベル条件の異なる既存手法よりも優れている。
- 参考スコア(独自算出の注目度): 18.409596696877472
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Electroencephalography (EEG) is an objective tool for emotion recognition
with promising applications. However, the scarcity of labeled data remains a
major challenge in this field, limiting the widespread use of EEG-based emotion
recognition. In this paper, a semi-supervised Dual-stream Self-Attentive
Adversarial Graph Contrastive learning framework (termed as DS-AGC) is proposed
to tackle the challenge of limited labeled data in cross-subject EEG-based
emotion recognition. The DS-AGC framework includes two parallel streams for
extracting non-structural and structural EEG features. The non-structural
stream incorporates a semi-supervised multi-domain adaptation method to
alleviate distribution discrepancy among labeled source domain, unlabeled
source domain, and unknown target domain. The structural stream develops a
graph contrastive learning method to extract effective graph-based feature
representation from multiple EEG channels in a semi-supervised manner. Further,
a self-attentive fusion module is developed for feature fusion, sample
selection, and emotion recognition, which highlights EEG features more relevant
to emotions and data samples in the labeled source domain that are closer to
the target domain. Extensive experiments conducted on two benchmark databases
(SEED and SEED-IV) using a semi-supervised cross-subject leave-one-subject-out
cross-validation evaluation scheme show that the proposed model outperforms
existing methods under different incomplete label conditions (with an average
improvement of 5.83% on SEED and 6.99% on SEED-IV), demonstrating its
effectiveness in addressing the label scarcity problem in cross-subject
EEG-based emotion recognition.
- Abstract(参考訳): 脳波(Electroencephalography、EEG)は、有望な応用を伴う感情認識のための客観的ツールである。
しかし、この分野ではラベル付きデータの不足が大きな課題であり、脳波に基づく感情認識の広範使用を制限する。
本稿では,クロスサブジェクト脳波に基づく感情認識における限定ラベルデータの課題に対処するために,半教師付き双対的自己対向グラフコントラスト学習フレームワーク(ds-agc)を提案する。
DS-AGCフレームワークは、非構造的および構造的EEG特徴を抽出する2つの並列ストリームを含む。
非構造的ストリームは、ラベル付きソースドメイン、ラベル付きソースドメイン、未知のターゲットドメイン間の分散不一致を軽減するための、半教師付きマルチドメイン適応手法を含む。
構造ストリームは,複数のEEGチャネルから効率的なグラフベースの特徴表現を半教師付きで抽出するグラフコントラスト学習法を開発する。
さらに、特徴融合、サンプル選択、感情認識のための自己注意融合モジュールが開発され、ターゲットドメインに近いラベル付きソースドメイン内の感情やデータサンプルとより関連性の高い脳波特徴が強調される。
2つのベンチマークデータベース(seedおよびseed-iv)において、半教師付きクロスサブジェクト残・one-subject-outクロスバリデーション評価方式を用いて、提案手法が、異なる不完全なラベル条件下で既存の手法よりも優れていること(平均で5.83%、seed-ivで6.99%改善)を示し、クロスサブジェクトeegに基づく感情認識におけるラベル不足問題に対処する上での有効性を実証した。
関連論文リスト
- Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - Joint Contrastive Learning with Feature Alignment for Cross-Corpus EEG-based Emotion Recognition [2.1645626994550664]
我々は,クロスコーパス脳波に基づく感情認識に対処するために,特徴アライメントを用いた新しいコントラスト学習フレームワークを提案する。
事前学習段階では、脳波信号の一般化可能な時間周波数表現を特徴付けるために、共同領域コントラスト学習戦略を導入する。
微調整の段階では、JCFAは脳電極間の構造的接続を考慮した下流タスクと共に洗練される。
論文 参考訳(メタデータ) (2024-04-15T08:21:17Z) - Graph Convolutional Network with Connectivity Uncertainty for EEG-based
Emotion Recognition [20.655367200006076]
本研究では,脳波信号の空間依存性と時間スペクトルの相対性を表す分布に基づく不確実性手法を提案する。
グラフ混合手法は、遅延接続エッジを強化し、ノイズラベル問題を緩和するために用いられる。
感情認識タスクにおいて、SEEDとSEEDIVという2つの広く使われているデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2023-10-22T03:47:11Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - EEG-based Emotion Style Transfer Network for Cross-dataset Emotion
Recognition [45.26847258736848]
本稿では,脳波に基づく感情スタイル伝達ネットワーク(E2STN)を提案する。
E2STNは、クロスデータセットのEEG感情認識タスクにおける最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2023-08-09T16:54:40Z) - EEGMatch: Learning with Incomplete Labels for Semi-Supervised EEG-based Cross-Subject Emotion Recognition [7.1695247553867345]
ラベル付き脳波データとラベルなし脳波データの両方を活用する新しい半教師付き学習フレームワーク(EEGMatch)を提案する。
2つのベンチマークデータベース(SEEDとSEED-IV)で大規模な実験を行う。
論文 参考訳(メタデータ) (2023-03-27T12:02:33Z) - Group Gated Fusion on Attention-based Bidirectional Alignment for
Multimodal Emotion Recognition [63.07844685982738]
本稿では、LSTM隠蔽状態上の注目に基づく双方向アライメントネットワークで構成されるGBAN(Gated Bidirectional Alignment Network)と呼ばれる新しいモデルを提案する。
LSTMの最後の隠れ状態よりもアテンション整列表現の方が有意に優れていたことを実証的に示す。
提案したGBANモデルは、IEMOCAPデータセットにおける既存の最先端マルチモーダルアプローチよりも優れている。
論文 参考訳(メタデータ) (2022-01-17T09:46:59Z) - Subject Independent Emotion Recognition using EEG Signals Employing
Attention Driven Neural Networks [2.76240219662896]
主観非依存の感情認識が可能な新しいディープラーニングフレームワークを提案する。
タスクを実行するために、アテンションフレームワークを備えた畳み込みニューラルネットワーク(CNN)を提示する。
提案手法は、公開データセットを使用して検証されている。
論文 参考訳(メタデータ) (2021-06-07T09:41:15Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Emotional Semantics-Preserved and Feature-Aligned CycleGAN for Visual
Emotion Adaptation [85.20533077846606]
教師なしドメイン適応(UDA)は、あるラベル付きソースドメインで訓練されたモデルを別のラベル付きターゲットドメインに転送する問題を研究する。
本稿では,感情分布学習と支配的感情分類の両面での視覚的感情分析におけるUDAに着目した。
本稿では,CycleEmotionGAN++と呼ばれる,エンドツーエンドのサイクル整合対向モデルを提案する。
論文 参考訳(メタデータ) (2020-11-25T01:31:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。