論文の概要: MSGM: A Multi-Scale Spatiotemporal Graph Mamba for EEG Emotion Recognition
- arxiv url: http://arxiv.org/abs/2507.15914v1
- Date: Mon, 21 Jul 2025 17:18:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.813805
- Title: MSGM: A Multi-Scale Spatiotemporal Graph Mamba for EEG Emotion Recognition
- Title(参考訳): MSGM:脳波認識のためのマルチスケール時空間グラフマンバ
- Authors: Hanwen Liu, Yifeng Gong, Zuwei Yan, Zeheng Zhuang, Jiaxuan Lu,
- Abstract要約: 本稿では,マルチウィンドウ時間分割,バイテンポラルグラフモデリング,およびMambaアーキテクチャによる効率的な融合を統合した新しいフレームワークを提案する。
脳波信号を様々な時間スケールに分割することで、MSGMはきめ細かい感情の変動と階層的な脳の接続を効果的に捉える。
MSGMはSEED、T-HU-EP、FACEDEPの分野における主要な手法を超越している。特に、MSST-Mamba層モデリングでは、SEED、T-HU-EP、FACEDEPの分野における主要な手法を超越している。
- 参考スコア(独自算出の注目度): 2.9197024670810867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: EEG-based emotion recognition struggles with capturing multi-scale spatiotemporal dynamics and ensuring computational efficiency for real-time applications. Existing methods often oversimplify temporal granularity and spatial hierarchies, limiting accuracy. To overcome these challenges, we propose the Multi-Scale Spatiotemporal Graph Mamba (MSGM), a novel framework integrating multi-window temporal segmentation, bimodal spatial graph modeling, and efficient fusion via the Mamba architecture. By segmenting EEG signals across diverse temporal scales and constructing global-local graphs with neuroanatomical priors, MSGM effectively captures fine-grained emotional fluctuations and hierarchical brain connectivity. A multi-depth Graph Convolutional Network (GCN) and token embedding fusion module, paired with Mamba's state-space modeling, enable dynamic spatiotemporal interaction at linear complexity. Notably, with just one MSST-Mamba layer, MSGM surpasses leading methods in the field on the SEED, THU-EP, and FACED datasets, outperforming baselines in subject-independent emotion classification while achieving robust accuracy and millisecond-level inference on the NVIDIA Jetson Xavier NX.
- Abstract(参考訳): EEGに基づく感情認識は、マルチスケールの時空間ダイナミクスのキャプチャと、リアルタイムアプリケーションにおける計算効率の確保に苦慮している。
既存の手法はしばしば時間的粒度と空間的階層を過度に単純化し、精度を制限している。
これらの課題を克服するために,マルチスケール時空間グラフマンバ (MSGM) を提案する。
脳波信号を様々な時間スケールに分割し、神経解剖学的先行性を持つグローバルな局所グラフを構築することで、MSGMは、きめ細かい感情的変動と階層的な脳との接続を効果的に捉える。
マルチディープスグラフ畳み込みネットワーク(GCN)とトークン埋め込み融合モジュールは、Mambaの状態空間モデリングと組み合わせて、線形複雑度における動的時空間相互作用を可能にする。
特に、1つのMSST-Mamba層だけで、MSGMはSEED、THU-EP、FACEDデータセットの分野における主要な手法を超越し、NVIDIA Jetson Xavier NXにおける堅牢な精度とミリ秒レベルの推論を達成しながら、主観非依存の感情分類におけるベースラインを上回っている。
関連論文リスト
- Hypergraph Mamba for Efficient Whole Slide Image Understanding [10.285000840656808]
ホイルスライド画像 (WSI) は, 超高解像度, 大規模, 複雑な空間関係のため, 医用画像解析において重要な課題となっている。
本稿では,ハイパーグラフニューラルネットワーク(HGNN)の高次リレーショナルモデリング機能と状態空間モデルの線形時間逐次モデリング効率を一体化する新しいフレームワークであるWSI-HGMambaを紹介する。
論文 参考訳(メタデータ) (2025-05-23T04:33:54Z) - BrainOmni: A Brain Foundation Model for Unified EEG and MEG Signals [50.76802709706976]
異種脳波とMEG記録を対象とする脳基礎モデルBrain Omniを提案する。
多様なデータソースを統一するために、脳の活動を離散表現に定量化する最初のトークンであるBrainTokenizerを紹介します。
EEGの合計1,997時間、MEGデータの656時間は、事前トレーニングのために公開されているソースからキュレーションされ、標準化されている。
論文 参考訳(メタデータ) (2025-05-18T14:07:14Z) - DynSTG-Mamba: Dynamic Spatio-Temporal Graph Mamba with Cross-Graph Knowledge Distillation for Gait Disorders Recognition [1.7519167857253402]
DynTG-Mambaは、DF-STGNNとSTG-Mambaを組み合わせてモーションモデリングを強化する新しいフレームワークである。
DF-STGNNは、骨格関節と時間的相互作用を適応的に調整する動的空間フィルタを組み込んでいる。
マンバの拡張であるSTG-Mambaは、計算コストを削減しつつ、状態の継続的な伝播を保証する。
論文 参考訳(メタデータ) (2025-03-17T13:26:47Z) - Multi-granular body modeling with Redundancy-Free Spatiotemporal Fusion for Text-Driven Motion Generation [10.843503146808839]
HiSTF Mambaを3つの部分からなるフレームワークとして紹介する: Dual-tial Mamba, Bi-Temporal Mamba, Spatiotemporal Fusion Module (DSFM)。
HumanML3Dベンチマークの実験では、HiSTF Mambaはいくつかの指標でよく機能し、高い忠実さとテキストとモーション間の密接なセマンティックアライメントを実現している。
論文 参考訳(メタデータ) (2025-03-10T04:01:48Z) - STNMamba: Mamba-based Spatial-Temporal Normality Learning for Video Anomaly Detection [48.997518615379995]
ビデオ異常検出(VAD)は、インテリジェントなビデオシステムの可能性から広く研究されている。
CNNやトランスフォーマーをベースとした既存の手法の多くは、依然としてかなりの計算負荷に悩まされている。
空間的時間的正規性の学習を促進するために,STNMambaという軽量で効果的なネットワークを提案する。
論文 参考訳(メタデータ) (2024-12-28T08:49:23Z) - MHSA: A Multi-scale Hypergraph Network for Mild Cognitive Impairment Detection via Synchronous and Attentive Fusion [4.526574526136158]
同期核融合によるMCI検出のためのマルチスケールハイパーグラフネットワークを提案する。
本手法では、関心領域のスペクトル領域における位相同期関係を計算するために、位相同期値(PLV)を用いる。
PLV係数は動的に戦略を調整し,時間スペクトル融合行列に基づいて動的ハイパーグラフをモデル化する。
論文 参考訳(メタデータ) (2024-12-11T02:59:57Z) - SIGMA: Selective Gated Mamba for Sequential Recommendation [56.85338055215429]
最近の進歩であるMambaは、時系列予測において例外的なパフォーマンスを示した。
SIGMA(Selective Gated Mamba)と呼ばれる,シークエンシャルレコメンデーションのための新しいフレームワークを紹介する。
以上の結果から,SIGMAは5つの実世界のデータセットにおいて,現在のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-08-21T09:12:59Z) - DyG-Mamba: Continuous State Space Modeling on Dynamic Graphs [59.434893231950205]
動的グラフ学習は、現実世界のシステムにおける進化の法則を明らかにすることを目的としている。
動的グラフ学習のための新しい連続状態空間モデルDyG-Mambaを提案する。
我々はDyG-Mambaがほとんどのデータセットで最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-08-13T15:21:46Z) - Mamba-Spike: Enhancing the Mamba Architecture with a Spiking Front-End for Efficient Temporal Data Processing [4.673285689826945]
Mamba-Spikeは、スパイクするフロントエンドとMambaのバックボーンを統合して、効率的な時間的データ処理を実現する新しいニューロモルフィックアーキテクチャである。
このアーキテクチャは、最先端のベースラインを一貫して上回り、高い精度、低いレイテンシ、エネルギー効率の向上を実現している。
論文 参考訳(メタデータ) (2024-08-04T14:10:33Z) - Multi-Scale Spatial-Temporal Self-Attention Graph Convolutional Networks for Skeleton-based Action Recognition [0.0]
本稿では,マルチスケール空間時間自己注意(MSST)-GCNという自己注意型GCNハイブリッドモデルを提案する。
適応トポロジを持つ空間自己保持モジュールを用いて、異なる身体部分間のフレーム内相互作用を理解するとともに、時間的自己保持モジュールを用いてノードのフレーム間の相関関係を調べる。
論文 参考訳(メタデータ) (2024-04-03T10:25:45Z) - MamMIL: Multiple Instance Learning for Whole Slide Images with State Space Models [56.37780601189795]
本稿では,WSI分析のためのフレームワークMamMILを提案する。
私たちは各WSIを非指向グラフとして表現します。
マンバが1次元シーケンスしか処理できない問題に対処するために、トポロジ対応の走査機構を提案する。
論文 参考訳(メタデータ) (2024-03-08T09:02:13Z) - Learning Multi-Granular Spatio-Temporal Graph Network for Skeleton-based
Action Recognition [49.163326827954656]
骨格に基づく行動分類のための新しい多言語時空間グラフネットワークを提案する。
2つの枝の枝からなるデュアルヘッドグラフネットワークを開発し、少なくとも2つの時間分解能を抽出する。
3つの大規模データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-08-10T09:25:07Z) - MTAG: Modal-Temporal Attention Graph for Unaligned Human Multimodal
Language Sequences [46.146331814606]
MTAGは、マルチモーダルシーケンシャルデータを解析するための適切なフレームワークを提供する、解釈可能なグラフベースのニューラルモデルである。
MTAGは、グラフ内の重要な相互作用のみに焦点を合わせることで、マルチモーダル感情分析と感情認識ベンチマークにおける最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-10-22T18:58:50Z) - Disentangling and Unifying Graph Convolutions for Skeleton-Based Action
Recognition [79.33539539956186]
本稿では,マルチスケールグラフ畳み込みと,G3Dという空間時間グラフ畳み込み演算子を結合する簡単な方法を提案する。
これらの提案を結合することにより,MS-G3Dという強力な特徴抽出器を開発し,そのモデルが3つの大規模データセット上で従来の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-03-31T11:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。