論文の概要: Fusion of Multiscale Features Via Centralized Sparse-attention Network for EEG Decoding
- arxiv url: http://arxiv.org/abs/2512.18689v2
- Date: Tue, 23 Dec 2025 14:46:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 15:12:21.130519
- Title: Fusion of Multiscale Features Via Centralized Sparse-attention Network for EEG Decoding
- Title(参考訳): 脳波復号のための集中型スパースアテンションネットワークによるマルチスケール特徴の融合
- Authors: Xiangrui Cai, Shaocheng Ma, Lei Cao, Jie Li, Tianyu Liu, Yilin Dong,
- Abstract要約: 本稿では,集中型スパースアテンションネットワークであるスパルスアテンションネットワーク(EEG-CSANet)によるマルチスケール特徴の融合を提案する。
EEG-CSANetは、様々なEEGデコーディングタスク間で堅牢性と適応性を達成する。
将来的にはEEG-CSANetが脳波信号デコーディングの分野で有望なベースラインモデルとして機能することを期待している。
- 参考スコア(独自算出の注目度): 16.451536844084483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Electroencephalography (EEG) signal decoding is a key technology that translates brain activity into executable commands, laying the foundation for direct brain-machine interfacing and intelligent interaction. To address the inherent spatiotemporal heterogeneity of EEG signals, this paper proposes a multi-branch parallel architecture, where each temporal scale is equipped with an independent spatial feature extraction module. To further enhance multi-branch feature fusion, we propose a Fusion of Multiscale Features via Centralized Sparse-attention Network (EEG-CSANet), a centralized sparse-attention network. It employs a main-auxiliary branch architecture, where the main branch models core spatiotemporal patterns via multiscale self-attention, and the auxiliary branch facilitates efficient local interactions through sparse cross-attention. Experimental results show that EEG-CSANet achieves state-of-the-art (SOTA) performance across five public datasets (BCIC-IV-2A, BCIC-IV-2B, HGD, SEED, and SEED-VIG), with accuracies of 88.54%, 91.09%, 99.43%, 96.03%, and 90.56%, respectively. Such performance demonstrates its strong adaptability and robustness across various EEG decoding tasks. Moreover, extensive ablation studies are conducted to enhance the interpretability of EEG-CSANet. In the future, we hope that EEG-CSANet could serve as a promising baseline model in the field of EEG signal decoding. The source code is publicly available at: https://github.com/Xiangrui-Cai/EEG-CSANet
- Abstract(参考訳): 脳波信号復号法(EEG)は脳活動を実行可能なコマンドに変換する重要な技術であり、脳と機械の直接的相互作用と知的相互作用の基礎となる。
本稿では,脳波信号の時空間的不均一性に対処するため,各時間スケールに独立した空間特徴抽出モジュールを備えるマルチブランチ並列アーキテクチャを提案する。
マルチブランチ機能融合をさらに強化するため,集中型スパースアテンションネットワークである集中型スパースアテンションネットワーク(EEG-CSANet)によるマルチスケール特徴の融合を提案する。
メインブランチはマルチスケールの自己アテンションを通じてコア時空間パターンをモデル化し、補助ブランチはスパース・クロスアテンションを通じて効率的な局所的相互作用を促進する。
実験の結果、EEG-CSANetは5つの公開データセット(BCIC-IV-2A、BCIC-IV-2B、HGD、SEED-VIG、SEED-VIG)でそれぞれ88.54%、91.09%、99.43%、96.03%、90.56%の精度でSOTA(State-of-the-art)性能を達成した。
このような性能は、様々なEEGデコーディングタスクに強い適応性と堅牢性を示す。
さらに、脳波CSANetの解釈可能性を高めるために、広範囲にわたるアブレーション研究を行っている。
将来的にはEEG-CSANetが脳波信号デコーディングの分野で有望なベースラインモデルとして機能することを期待している。
ソースコードは、https://github.com/Xiangrui-Cai/EEG-CSANetで公開されている。
関連論文リスト
- GCMCG: A Clustering-Aware Graph Attention and Expert Fusion Network for Multi-Paradigm, Multi-task, and Cross-Subject EEG Decoding [0.7871262900865523]
運動画像(MI)脳波(EEG)信号に基づく脳-コンピュータインタフェース(BCI)は、人間と機械の相互作用の直接的な経路を提供する。
本稿では,MI-ME EEGデコーディングのための新しい統合フレームワークであるGraph-guided Clustering Mixture-of-Experts CNNGRUGを提案する。
論文 参考訳(メタデータ) (2025-11-29T18:05:33Z) - TFGA-Net: Temporal-Frequency Graph Attention Network for Brain-Controlled Speaker Extraction [7.795259968001983]
脳波(EEG)信号に基づくAADは、脳波駆動型ターゲット話者抽出の可能性を提供する。
本稿では,脳波を用いた話者抽出モデルを提案し,脳波を聴取者から記録した脳波を用いて対象音声を抽出する。
我々のTFGA-Netモデルは、ある客観的評価指標において最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2025-10-14T08:26:50Z) - CodeBrain: Towards Decoupled Interpretability and Multi-Scale Architecture for EEG Foundation Model [52.466542039411515]
EEGファウンデーションモデル(EFM)は、タスク固有のモデルのスケーラビリティ問題に対処するために登場した。
このギャップを埋めるために設計された2段階のEMFであるCodeBrainを紹介します。
第1段階では、異種時間・周波数の脳波信号を離散トークンに分解するTFDual-Tokenizerを導入する。
第2段階では、構造化されたグローバル畳み込みとスライディングウインドウの注意を結合したマルチスケールEEGSSMアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-06-10T17:20:39Z) - CognitionCapturer: Decoding Visual Stimuli From Human EEG Signal With Multimodal Information [61.1904164368732]
脳波信号の表現にマルチモーダルデータを完全に活用する統合フレームワークであるCognitionCapturerを提案する。
具体的には、CognitionCapturerは、各モダリティに対してモダリティエキスパートを訓練し、EEGモダリティからモダリティ情報を抽出する。
このフレームワークは生成モデルの微調整を一切必要とせず、より多くのモダリティを組み込むように拡張することができる。
論文 参考訳(メタデータ) (2024-12-13T16:27:54Z) - EEG-DCNet: A Fast and Accurate MI-EEG Dilated CNN Classification Method [10.791605945979995]
EEG-Dilated Convolution Network (DCNet) と呼ばれる新しいマルチスケールアラス畳み込みニューラルネットワーク(CNN)モデルを提案する。
我々は1時間1ドルの畳み込み層を組み込み、EEG-DCNetのマルチブランチ並列アラス畳み込みアーキテクチャを利用する。
本稿では,EEG-DCNetが既存のSOTA(State-of-the-art)アプローチよりも,分類精度とKappaスコアの点で優れていることを示す。
論文 参考訳(メタデータ) (2024-11-12T09:47:50Z) - Dual-TSST: A Dual-Branch Temporal-Spectral-Spatial Transformer Model for EEG Decoding [2.0721229324537833]
デュアルブランチ時間スペクトル空間変換器(Dual-TSST)を用いた新しいデコードアーキテクチャネットワークを提案する。
提案するDual-TSSTは様々なタスクにおいて優れており,平均精度80.67%の脳波分類性能が期待できる。
本研究は,高性能脳波デコーディングへの新たなアプローチを提供するとともに,将来のCNN-Transformerベースのアプリケーションにも大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-09-05T05:08:43Z) - Enhancing EEG-to-Text Decoding through Transferable Representations from Pre-trained Contrastive EEG-Text Masked Autoencoder [69.7813498468116]
コントラスト型脳波テキストマスケード自動エンコーダ(CET-MAE)を提案する。
また、E2T-PTR(Pretrained Transferable Representationsを用いたEEG-to-Text decoding)と呼ばれるフレームワークを開発し、EEGシーケンスからテキストをデコードする。
論文 参考訳(メタデータ) (2024-02-27T11:45:21Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - CIT-EmotionNet: CNN Interactive Transformer Network for EEG Emotion
Recognition [6.208851183775046]
我々はCIT-EmotionNetとして知られる脳波認識のための新しいCNN Interactive Transformer Networkを提案する。
我々は、生の脳波信号を入力として空間周波数表現に変換し、その後、コンボリューショナルニューラルネットワーク(CNN)とトランスフォーマーを1つのフレームワークに並列に統合する。
提案されたCIT-EmotionNetは最先端の手法より優れており、2つの公開データセットで平均認識精度98.57%と92.09%を達成している。
論文 参考訳(メタデータ) (2023-05-07T16:27:09Z) - EEG-Inception: An Accurate and Robust End-to-End Neural Network for
EEG-based Motor Imagery Classification [123.93460670568554]
本稿では,脳波に基づく運動画像(MI)分類のための新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
提案したCNNモデル、すなわちEEG-Inceptionは、Inception-Timeネットワークのバックボーン上に構築されている。
提案するネットワークは、生のEEG信号を入力とし、複雑なEEG信号前処理を必要としないため、エンドツーエンドの分類である。
論文 参考訳(メタデータ) (2021-01-24T19:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。