論文の概要: DBConformer: Dual-Branch Convolutional Transformer for EEG Decoding
- arxiv url: http://arxiv.org/abs/2506.21140v1
- Date: Thu, 26 Jun 2025 10:53:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:10.053284
- Title: DBConformer: Dual-Branch Convolutional Transformer for EEG Decoding
- Title(参考訳): DBConformer:脳波復号のためのデュアルブランチ畳み込み変換器
- Authors: Ziwei Wang, Hongbin Wang, Tianwang Jia, Xingyi He, Siyang Li, Dongrui Wu,
- Abstract要約: 脳波復号に適した2分岐畳み込み変換器ネットワークDBConformerを提案する。
時間変換器を統合して、長距離時間依存をモデル化し、空間変換器をチャネル間相互作用を抽出する。
高容量のEEG Conformerベースラインの8倍以上のパラメータで、競争力のあるベースラインモデルよりも一貫して優れています。
- 参考スコア(独自算出の注目度): 24.423473628322427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Electroencephalography (EEG)-based brain-computer interfaces (BCIs) transform spontaneous/evoked neural activity into control commands for external communication. While convolutional neural networks (CNNs) remain the mainstream backbone for EEG decoding, their inherently short receptive field makes it difficult to capture long-range temporal dependencies and global inter-channel relationships. Recent CNN-Transformer (Conformers) hybrids partially address this issue, but most adopt a serial design, resulting in suboptimal integration of local and global features, and often overlook explicit channel-wise modeling. To address these limitations, we propose DBConformer, a dual-branch convolutional Transformer network tailored for EEG decoding. It integrates a temporal Conformer to model long-range temporal dependencies and a spatial Conformer to extract inter-channel interactions, capturing both temporal dynamics and spatial patterns in EEG signals. A lightweight channel attention module further refines spatial representations by assigning data-driven importance to EEG channels. Extensive experiments on five motor imagery (MI) datasets and two seizure detection datasets under three evaluation settings demonstrate that DBConformer consistently outperforms 10 competitive baseline models, with over eight times fewer parameters than the high-capacity EEG Conformer baseline. Further, the visualization results confirm that the features extracted by DBConformer are physiologically interpretable and aligned with sensorimotor priors in MI. The superior performance and interpretability of DBConformer make it reliable for robust and explainable EEG decoding. Code is publicized at https://github.com/wzwvv/DBConformer.
- Abstract(参考訳): 脳波(EEG)に基づく脳-コンピュータインターフェース(BCI)は、自然発生/誘発された神経活動から外部通信の制御コマンドへと変換する。
畳み込みニューラルネットワーク(CNN)は、脳波デコーディングの主流のバックボーンであるが、その本質的に短い受容領域は、長距離の時間的依存とグローバルなチャネル間関係を捉えるのが困難である。
近年のCNN-Transformer(Conformers)ハイブリッドはこの問題に部分的に対処しているが、ほとんどはシリアル設計を採用しており、ローカルとグローバルの機能を最適に統合し、しばしば明示的なチャネルワイド・モデリングを見落としている。
これらの制約に対処するため、脳波復号に適した二重分岐畳み込み変換器ネットワークDBConformerを提案する。
時間変換器を統合して、長距離時間依存性をモデル化し、空間変換器をチャネル間相互作用を抽出し、脳波信号の時間ダイナミクスと空間パターンの両方をキャプチャする。
軽量チャネルアテンションモジュールは、データ駆動の重要度をEEGチャネルに割り当てることで、空間表現をさらに洗練する。
5つの運動画像(MI)データセットと3つの評価条件下での2つの発作検出データセットに対する大規模な実験により、DBConformerは10の競争ベースラインモデルより一貫して優れており、高容量のEEG Conformerベースラインよりも8倍以上のパラメータが小さいことが示されている。
さらに,DBConformerが抽出した特徴が生理学的に解釈可能であり,MIの知覚士先行値と一致していることを確認した。
DBConformerの優れた性能と解釈可能性により、堅牢で説明可能なEEGデコードに信頼性がある。
コードはhttps://github.com/wzwvv/DBConformer.comで公開されている。
関連論文リスト
- Dual-TSST: A Dual-Branch Temporal-Spectral-Spatial Transformer Model for EEG Decoding [2.0721229324537833]
デュアルブランチ時間スペクトル空間変換器(Dual-TSST)を用いた新しいデコードアーキテクチャネットワークを提案する。
提案するDual-TSSTは様々なタスクにおいて優れており,平均精度80.67%の脳波分類性能が期待できる。
本研究は,高性能脳波デコーディングへの新たなアプローチを提供するとともに,将来のCNN-Transformerベースのアプリケーションにも大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-09-05T05:08:43Z) - EEG-Deformer: A Dense Convolutional Transformer for Brain-computer Interfaces [17.524441950422627]
本稿では,CNN-Transformerに2つの新しいコンポーネントを組み込んだEEG-Deformerを紹介する。
EEG-Deformerは神経生理学的に意味のある脳領域から学習し、対応する認知タスクを学習する。
論文 参考訳(メタデータ) (2024-04-25T18:00:46Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Large Transformers are Better EEG Learners [8.930281191465088]
AdaCT - 時系列データを2次元の擬似画像やテキスト形式に変換するためのプラグアンドプレイアダプタ。
AdaCTIは、マルチチャネルまたは長さの単一チャネル時系列データを擬似画像に変換して、微調整された事前学習された視覚変換を行う。
AdaCT-Tは、短い単一チャネルデータをテキストに変換し、訓練済み言語変換器を微調整する。
論文 参考訳(メタデータ) (2023-08-20T12:54:17Z) - Error Correction Code Transformer [92.10654749898927]
本稿では,トランスフォーマーアーキテクチャを任意のブロック長で線形符号のソフトデコードに拡張することを提案する。
我々は,各チャネルの出力次元を高次元に符号化し,個別に処理すべきビット情報のより良い表現を行う。
提案手法は、トランスフォーマーの極端なパワーと柔軟性を示し、既存の最先端のニューラルデコーダを、その時間的複雑さのごく一部で大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-03-27T15:25:58Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - Transformer-based Spatial-Temporal Feature Learning for EEG Decoding [4.8276709243429]
本稿では,主に注意機構に依存する新しい脳波復号法を提案する。
我々はより少ないパラメータで、脳波の多分類化における最先端のレベルに達しました。
脳-コンピュータインタフェース(BCI)の実用性を促進する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2021-06-11T00:48:18Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。