論文の概要: EEG-based Emotion Style Transfer Network for Cross-dataset Emotion
Recognition
- arxiv url: http://arxiv.org/abs/2308.05767v1
- Date: Wed, 9 Aug 2023 16:54:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 16:04:17.740858
- Title: EEG-based Emotion Style Transfer Network for Cross-dataset Emotion
Recognition
- Title(参考訳): クロスデータセット感情認識のための脳波に基づく感情スタイル伝達ネットワーク
- Authors: Yijin Zhou, Fu Li, Yang Li, Youshuo Ji, Lijian Zhang, Yuanfang Chen,
Wenming Zheng, Guangming Shi
- Abstract要約: 本稿では,脳波に基づく感情スタイル伝達ネットワーク(E2STN)を提案する。
E2STNは、クロスデータセットのEEG感情認識タスクにおける最先端のパフォーマンスを達成することができる。
- 参考スコア(独自算出の注目度): 45.26847258736848
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the key to realizing aBCIs, EEG emotion recognition has been widely
studied by many researchers. Previous methods have performed well for
intra-subject EEG emotion recognition. However, the style mismatch between
source domain (training data) and target domain (test data) EEG samples caused
by huge inter-domain differences is still a critical problem for EEG emotion
recognition. To solve the problem of cross-dataset EEG emotion recognition, in
this paper, we propose an EEG-based Emotion Style Transfer Network (E2STN) to
obtain EEG representations that contain the content information of source
domain and the style information of target domain, which is called stylized
emotional EEG representations. The representations are helpful for
cross-dataset discriminative prediction. Concretely, E2STN consists of three
modules, i.e., transfer module, transfer evaluation module, and discriminative
prediction module. The transfer module encodes the domain-specific information
of source and target domains and then re-constructs the source domain's
emotional pattern and the target domain's statistical characteristics into the
new stylized EEG representations. In this process, the transfer evaluation
module is adopted to constrain the generated representations that can more
precisely fuse two kinds of complementary information from source and target
domains and avoid distorting. Finally, the generated stylized EEG
representations are fed into the discriminative prediction module for final
classification. Extensive experiments show that the E2STN can achieve the
state-of-the-art performance on cross-dataset EEG emotion recognition tasks.
- Abstract(参考訳): ABCIを実現する鍵として、脳波の感情認識は多くの研究者によって広く研究されている。
従来,脳波内感情認識の手法は良好であった。
しかし、ソースドメイン(トレーニングデータ)とターゲットドメイン(テストデータ)のEEGサンプル間のスタイルミスマッチは、大きなドメイン間差によって引き起こされる。
本稿では,eeg感情認識のクロスデータセットの課題を解決するために,e2stn(eeg-based emotion style transfer network)を提案する。
この表現は、データセット間の識別予測に役立つ。
具体的には、E2STNは、転送モジュール、転送評価モジュール、識別予測モジュールの3つのモジュールから構成される。
転送モジュールは、ソースドメインとターゲットドメインのドメイン固有の情報を符号化し、ソースドメインの感情パターンとターゲットドメインの統計特性を新しいスタイリングされたEEG表現に再構成する。
このプロセスでは、転送評価モジュールを用いて生成された表現を制約し、ソースおよびターゲットドメインからの2種類の補完情報をより正確に融合させ、歪みを避ける。
最後に、生成されたスタイリングされたEEG表現を最終分類のための識別予測モジュールに入力する。
広汎な実験により、E2STNは、クロスデータセットのEEG感情認識タスクにおける最先端のパフォーマンスを達成できることが示されている。
関連論文リスト
- DuA: Dual Attentive Transformer in Long-Term Continuous EEG Emotion Analysis [15.858955204180907]
本稿では,長期連続脳波感情分析のためのDuA変換フレームワークを提案する。
セグメントベースのアプローチとは異なり、DuAトランスフォーマーはEEGトライアル全体を全体として処理し、トライアルレベルで感情を識別する。
このフレームワークは様々な信号長に適応するように設計されており、従来の手法よりもかなり有利である。
論文 参考訳(メタデータ) (2024-07-30T03:31:03Z) - Joint Contrastive Learning with Feature Alignment for Cross-Corpus EEG-based Emotion Recognition [2.1645626994550664]
我々は,クロスコーパス脳波に基づく感情認識に対処するために,特徴アライメントを用いた新しいコントラスト学習フレームワークを提案する。
事前学習段階では、脳波信号の一般化可能な時間周波数表現を特徴付けるために、共同領域コントラスト学習戦略を導入する。
微調整の段階では、JCFAは脳電極間の構造的接続を考慮した下流タスクと共に洗練される。
論文 参考訳(メタデータ) (2024-04-15T08:21:17Z) - Enhancing EEG-to-Text Decoding through Transferable Representations from Pre-trained Contrastive EEG-Text Masked Autoencoder [69.7813498468116]
コントラスト型脳波テキストマスケード自動エンコーダ(CET-MAE)を提案する。
また、E2T-PTR(Pretrained Transferable Representationsを用いたEEG-to-Text decoding)と呼ばれるフレームワークを開発し、EEGシーケンスからテキストをデコードする。
論文 参考訳(メタデータ) (2024-02-27T11:45:21Z) - Semi-Supervised Dual-Stream Self-Attentive Adversarial Graph Contrastive Learning for Cross-Subject EEG-based Emotion Recognition [19.578050094283313]
DS-AGCフレームワークは、クロスオブジェクト脳波に基づく感情認識において、限定ラベル付きデータの課題に取り組むために提案されている。
提案手法は,不完全ラベル条件の異なる既存手法よりも優れている。
論文 参考訳(メタデータ) (2023-08-13T23:54:40Z) - EEGMatch: Learning with Incomplete Labels for Semi-Supervised EEG-based Cross-Subject Emotion Recognition [7.1695247553867345]
ラベル付き脳波データとラベルなし脳波データの両方を活用する新しい半教師付き学習フレームワーク(EEGMatch)を提案する。
2つのベンチマークデータベース(SEEDとSEED-IV)で大規模な実験を行う。
論文 参考訳(メタデータ) (2023-03-27T12:02:33Z) - EEG2Vec: Learning Affective EEG Representations via Variational
Autoencoders [27.3162026528455]
我々は、感情的な刺激に反応して、潜在ベクトル空間におけるニューラルデータを表現することが、両方の感情状態を予測するのに役立つかどうかを考察する。
脳波データから生成的識別的表現を学習するための条件付き変分オートエンコーダベースのフレームワークであるEEG2Vecを提案する。
論文 参考訳(メタデータ) (2022-07-16T19:25:29Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - EEG-Inception: An Accurate and Robust End-to-End Neural Network for
EEG-based Motor Imagery Classification [123.93460670568554]
本稿では,脳波に基づく運動画像(MI)分類のための新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
提案したCNNモデル、すなわちEEG-Inceptionは、Inception-Timeネットワークのバックボーン上に構築されている。
提案するネットワークは、生のEEG信号を入力とし、複雑なEEG信号前処理を必要としないため、エンドツーエンドの分類である。
論文 参考訳(メタデータ) (2021-01-24T19:03:10Z) - Emotional Semantics-Preserved and Feature-Aligned CycleGAN for Visual
Emotion Adaptation [85.20533077846606]
教師なしドメイン適応(UDA)は、あるラベル付きソースドメインで訓練されたモデルを別のラベル付きターゲットドメインに転送する問題を研究する。
本稿では,感情分布学習と支配的感情分類の両面での視覚的感情分析におけるUDAに着目した。
本稿では,CycleEmotionGAN++と呼ばれる,エンドツーエンドのサイクル整合対向モデルを提案する。
論文 参考訳(メタデータ) (2020-11-25T01:31:01Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。