論文の概要: Local-Global Feature Fusion for Subject-Independent EEG Emotion Recognition
- arxiv url: http://arxiv.org/abs/2601.08094v1
- Date: Tue, 13 Jan 2026 00:27:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:18.988743
- Title: Local-Global Feature Fusion for Subject-Independent EEG Emotion Recognition
- Title(参考訳): 主観非依存脳波認識のための局所的特徴融合法
- Authors: Zheng Zhou, Isabella McEvoy, Camilo E. Valderrama,
- Abstract要約: 我々は,(i)ローカルなチャネルワイドな記述子と(ii)グローバルなトライアルレベルの記述子を統合した融合フレームワークを提案する。
試行錯誤プロトコルによる実験は,提案手法が単一ビューと古典的ベースラインを一貫して上回ることを示した。
- 参考スコア(独自算出の注目度): 5.248014945077116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Subject-independent EEG emotion recognition is challenged by pronounced inter-subject variability and the difficulty of learning robust representations from short, noisy recordings. To address this, we propose a fusion framework that integrates (i) local, channel-wise descriptors and (ii) global, trial-level descriptors, improving cross-subject generalization on the SEED-VII dataset. Local representations are formed per channel by concatenating differential entropy with graph-theoretic features, while global representations summarize time-domain, spectral, and complexity characteristics at the trial level. These representations are fused in a dual-branch transformer with attention-based fusion and domain-adversarial regularization, with samples filtered by an intensity threshold. Experiments under a leave-one-subject-out protocol demonstrate that the proposed method consistently outperforms single-view and classical baselines, achieving approximately 40% mean accuracy in 7-class subject-independent emotion recognition. The code has been released at https://github.com/Danielz-z/LGF-EEG-Emotion.
- Abstract(参考訳): 主観非依存の脳波感情認識は、物体間変動の顕著さと、短い雑音のある記録から頑健な表現を学習することの難しさにより困難である。
これを解決するために,我々は統合された融合フレームワークを提案する。
(i)ローカル、チャンネルワイドディスクリプタ及び
(II)SEED-VIIデータセットのクロスオブジェクト一般化を改善したグローバルなトライアルレベルの記述子。
局所表現は、差分エントロピーとグラフ理論的特徴を連結することによりチャネル毎に形成され、グローバル表現は、試行レベルでの時間領域、スペクトル、複雑性の特徴を要約する。
これらの表現は、注意に基づく融合とドメイン逆正則化を備えたデュアルブランチ変換器で融合され、サンプルは強度閾値でフィルタリングされる。
単視点と古典的ベースラインを連続的に上回り、7種類の主観非依存感情認識において約40%の平均精度を達成できることを示す。
コードはhttps://github.com/Danielz-z/LGF-EEG-Emotionでリリースされた。
関連論文リスト
- CRIA: A Cross-View Interaction and Instance-Adapted Pre-training Framework for Generalizable EEG Representations [52.251569042852815]
CRIAは、可変長および可変チャネルコーディングを使用して、異なるデータセット間でEEGデータの統一表現を実現する適応フレームワークである。
このモデルでは、時間的、スペクトル的、空間的特徴を効果的に融合させるクロスアテンション機構を採用している。
テンプル大学脳波コーパスとCHB-MITデータセットによる実験結果から、CRIAは既存の方法よりも、同じ事前学習条件で優れていることが示された。
論文 参考訳(メタデータ) (2025-06-19T06:31:08Z) - Semantic-Aligned Learning with Collaborative Refinement for Unsupervised VI-ReID [82.12123628480371]
教師なしの人物再識別(USL-VI-ReID)は、モデル学習のための人間のアノテーションを使わずに、同じ人物の歩行者像を異なるモードでマッチングすることを目指している。
従来の手法では、ラベルアソシエーションアルゴリズムを用いて異質な画像の擬似ラベルを統一し、グローバルな特徴学習のためのコントラスト学習フレームワークを設計していた。
本稿では,各モダリティによって強調される特定のきめ細かいパターンを対象とするSALCR(Semantic-Aligned Learning with Collaborative Refinement)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-27T13:58:12Z) - FACE: Few-shot Adapter with Cross-view Fusion for Cross-subject EEG Emotion Recognition [57.08108545219043]
クロスオブジェクト脳波の感情認識は、重要なオブジェクト間変動と複雑に絡み合ったオブジェクト内変動によって困難である。
最近の数発の学習パラダイムは、これらの制限に対処しようと試みているが、しばしば限られたサンプルを用いて主題固有の適応を行う際に破滅的な過度なオーバーフィッティングに遭遇する。
本稿では,脳波の感情認識のためのFACEと呼ばれるクロスビュー融合方式のマイクロショットアダプタについて紹介する。
論文 参考訳(メタデータ) (2025-03-24T03:16:52Z) - Multi-Source Domain Adaptation with Transformer-based Feature Generation
for Subject-Independent EEG-based Emotion Recognition [0.5439020425819]
本稿では,複数の情報源からの情報を活用するために,トランスフォーマーベースの特徴生成器(MSDA-TF)を用いたマルチソース領域適応手法を提案する。
適応過程において、相関値に基づいてソース対象をグループ化し、ソース内だけでなく、対象対象のモーメントを各ソースと整合させることを目的としている。
MSDA-TFはSEEDデータセット上で検証され、有望な結果が得られた。
論文 参考訳(メタデータ) (2024-01-04T16:38:47Z) - CSLP-AE: A Contrastive Split-Latent Permutation Autoencoder Framework
for Zero-Shot Electroencephalography Signal Conversion [49.1574468325115]
脳波分析の鍵となる目的は、基礎となる神経活動(コンテンツ)を抽出し、個体の変動(スタイル)を考慮することである。
近年の音声変換技術の発展に触発されて,脳波変換を直接最適化するCSLP-AEフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-13T22:46:43Z) - Semi-Supervised Dual-Stream Self-Attentive Adversarial Graph Contrastive Learning for Cross-Subject EEG-based Emotion Recognition [19.578050094283313]
DS-AGCフレームワークは、クロスオブジェクト脳波に基づく感情認識において、限定ラベル付きデータの課題に取り組むために提案されている。
提案手法は,不完全ラベル条件の異なる既存手法よりも優れている。
論文 参考訳(メタデータ) (2023-08-13T23:54:40Z) - Transformer-based Self-supervised Multimodal Representation Learning for
Wearable Emotion Recognition [2.4364387374267427]
ウェアラブル感情認識のための新しい自己教師型学習(SSL)フレームワークを提案する。
本手法は様々な感情分類タスクにおいて最先端の結果を得た。
論文 参考訳(メタデータ) (2023-03-29T19:45:55Z) - Group Gated Fusion on Attention-based Bidirectional Alignment for
Multimodal Emotion Recognition [63.07844685982738]
本稿では、LSTM隠蔽状態上の注目に基づく双方向アライメントネットワークで構成されるGBAN(Gated Bidirectional Alignment Network)と呼ばれる新しいモデルを提案する。
LSTMの最後の隠れ状態よりもアテンション整列表現の方が有意に優れていたことを実証的に示す。
提案したGBANモデルは、IEMOCAPデータセットにおける既存の最先端マルチモーダルアプローチよりも優れている。
論文 参考訳(メタデータ) (2022-01-17T09:46:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。