論文の概要: Region-aware Spatiotemporal Modeling with Collaborative Domain Generalization for Cross-Subject EEG Emotion Recognition
- arxiv url: http://arxiv.org/abs/2601.15615v1
- Date: Thu, 22 Jan 2026 03:35:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.480985
- Title: Region-aware Spatiotemporal Modeling with Collaborative Domain Generalization for Cross-Subject EEG Emotion Recognition
- Title(参考訳): クロスオブジェクト脳波認識のための協調領域一般化を用いた領域認識時空間モデル
- Authors: Weiwei Wu, Yueyang Li, Yuhu Shi, Weiming Zeng, Lang Qin, Yang Yang, Ke Zhou, Zhiguo Zhang, Wai Ting Siok, Nizhuan Wang,
- Abstract要約: 物体間変動が強いため、物体間脳波に基づく感情認識は困難である。
本研究では、感情認識のための協調的ドメイン一般化を用いた地域対応時空間モデリングフレームワークを提案する。
RSM-CoDGは機能的脳領域分割から派生した先行を組み込んで領域レベルの空間表現を構築する。
また、感情誘発神経活動の動的進化を特徴付けるために、マルチスケールの時間モデルも採用している。
- 参考スコア(独自算出の注目度): 15.65302580686776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-subject EEG-based emotion recognition (EER) remains challenging due to strong inter-subject variability, which induces substantial distribution shifts in EEG signals, as well as the high complexity of emotion-related neural representations in both spatial organization and temporal evolution. Existing approaches typically improve spatial modeling, temporal modeling, or generalization strategies in isolation, which limits their ability to align representations across subjects while capturing multi-scale dynamics and suppressing subject-specific bias within a unified framework. To address these gaps, we propose a Region-aware Spatiotemporal Modeling framework with Collaborative Domain Generalization (RSM-CoDG) for cross-subject EEG emotion recognition. RSM-CoDG incorporates neuroscience priors derived from functional brain region partitioning to construct region-level spatial representations, thereby improving cross-subject comparability. It also employs multi-scale temporal modeling to characterize the dynamic evolution of emotion-evoked neural activity. In addition, the framework employs a collaborative domain generalization strategy, incorporating multidimensional constraints to reduce subject-specific bias in a fully unseen target subject setting, which enhances the generalization to unknown individuals. Extensive experimental results on SEED series datasets demonstrate that RSM-CoDG consistently outperforms existing competing methods, providing an effective approach for improving robustness. The source code is available at https://github.com/RyanLi-X/RSM-CoDG.
- Abstract(参考訳): クロスオブジェクト脳波に基づく感情認識(EER)は、強い物体間変動のため、脳波信号の相当な分布変化を誘発し、空間的組織と時間的進化の双方において感情関連神経表現の複雑さが高いため、依然として困難である。
既存のアプローチは、通常、空間的モデリング、時間的モデリング、一般化戦略を分離して改善し、マルチスケールのダイナミクスを捕捉し、統一されたフレームワーク内で主題固有のバイアスを抑えながら、対象間の表現を調整できる能力を制限している。
これらのギャップに対処するため、脳波感情認識のための協調領域一般化(RSM-CoDG)を用いた地域対応時空間モデリングフレームワークを提案する。
RSM-CoDGは、機能的脳領域分割に由来する神経科学の先駆体を組み込んで、領域レベルの空間表現を構築する。
また、感情誘発神経活動の動的進化を特徴付けるために、マルチスケールの時間モデルも採用している。
さらに、このフレームワークは協調的な領域一般化戦略を採用し、多次元的制約を取り入れて、完全に見えない対象設定における主観的偏見を低減し、未知の個人への一般化を促進する。
SEEDシリーズデータセットの大規模な実験結果から、RSM-CoDGは既存の競合する手法より一貫して優れており、堅牢性を改善する効果的なアプローチを提供する。
ソースコードはhttps://github.com/RyanLi-X/RSM-CoDGで入手できる。
関連論文リスト
- PTSM: Physiology-aware and Task-invariant Spatio-temporal Modeling for Cross-Subject EEG Decoding [29.645617313721186]
クロスオブジェクト脳波(EEG)デコーディングは、脳-コンピュータインターフェース(BCI)研究における根本的な課題である。
本稿では,未確認領域にまたがる脳波デコーディングのための新しいフレームワークPTSMを提案する。
PTSMは、パーソナライズされた時間的パターンと共有された時間的パターンを独立して学習するデュアルブランチ機構を採用している。
論文 参考訳(メタデータ) (2025-08-15T09:51:14Z) - Zero-Shot EEG-to-Gait Decoding via Phase-Aware Representation Learning [9.49131859415923]
ドメイン一般化型脳波-モーションデコーディングフレームワークであるNeuroDyGaitを提案する。
構造化されたコントラスト表現学習とリレーショナルドメインモデリングを使用して、脳波とモーション埋め込みのセマンティックアライメントを実現する。
ベンチマークデータセットのクロスオブジェクト歩行復号における適応や優れた性能を必要とせずに、見えない個人に対するゼロショットモーション予測を実現する。
論文 参考訳(メタデータ) (2025-06-24T06:03:49Z) - Learning Time-Aware Causal Representation for Model Generalization in Evolving Domains [50.66049136093248]
動的因果要因と因果機構のドリフトを組み込んだ時間認識型構造因果モデル(SCM)を開発した。
本研究では,時間領域毎に最適な因果予測値が得られることを示す。
合成と実世界の両方のデータセットの結果から,SynCは時間的一般化性能に優れることが示された。
論文 参考訳(メタデータ) (2025-06-21T14:05:37Z) - Topology-Assisted Spatio-Temporal Pattern Disentangling for Scalable MARL in Large-scale Autonomous Traffic Control [14.929720580977152]
本稿では,動的グラフニューラルネットワーク(DGNN)とトポロジカルデータ解析(TDA)を統合した新しいMARLフレームワークを提案する。
大規模言語モデル (LLMs) におけるMixture of Experts (MoE) アーキテクチャに着想を得て, 位相支援型空間パターンアンタングリング (TSD) 強化型MoEを提案する。
実世界の交通シナリオにおいて行われた大規模な実験は、包括的な理論的分析とともに、提案フレームワークの優れた性能を検証した。
論文 参考訳(メタデータ) (2025-06-14T11:18:12Z) - CodeBrain: Towards Decoupled Interpretability and Multi-Scale Architecture for EEG Foundation Model [52.466542039411515]
EEGファウンデーションモデル(EFM)は、タスク固有のモデルのスケーラビリティ問題に対処するために登場した。
このギャップを埋めるために設計された2段階のEMFであるCodeBrainを紹介します。
第1段階では、異種時間・周波数の脳波信号を離散トークンに分解するTFDual-Tokenizerを導入する。
第2段階では、構造化されたグローバル畳み込みとスライディングウインドウの注意を結合したマルチスケールEEGSSMアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-06-10T17:20:39Z) - PhysLLM: Harnessing Large Language Models for Cross-Modal Remote Physiological Sensing [49.243031514520794]
LLM(Large Language Models)は、テキスト中心の設計のため、長距離信号の取得に優れる。
PhysLLMは最先端の精度とロバスト性を実現し、照明のバリエーションや動きのシナリオにまたがる優れた一般化を示す。
論文 参考訳(メタデータ) (2025-05-06T15:18:38Z) - Multi-modal Mood Reader: Pre-trained Model Empowers Cross-Subject Emotion Recognition [23.505616142198487]
我々は、クロスオブジェクト感情認識のための訓練済みモデルに基づくMultimodal Mood Readerを開発した。
このモデルは、大規模データセットの事前学習を通じて、脳波信号の普遍的な潜在表現を学習する。
公開データセットに関する大規模な実験は、クロスオブジェクト感情認識タスクにおけるMood Readerの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-28T14:31:11Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - DG-STGCN: Dynamic Spatial-Temporal Modeling for Skeleton-based Action
Recognition [77.87404524458809]
骨格に基づく行動認識のための新しいフレームワーク,すなわち動的グループ時空間GCN(DG-STGCN)を提案する。
DG-GCNとDG-TCNの2つのモジュールで構成される。
DG-STGCNは最先端の手法よりも一貫して優れており、しばしば顕著な差がある。
論文 参考訳(メタデータ) (2022-10-12T03:17:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。