論文の概要: EEG-Deformer: A Dense Convolutional Transformer for Brain-computer Interfaces
- arxiv url: http://arxiv.org/abs/2405.00719v2
- Date: Tue, 29 Oct 2024 06:24:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:36:12.283742
- Title: EEG-Deformer: A Dense Convolutional Transformer for Brain-computer Interfaces
- Title(参考訳): EEG-Deformer:脳-コンピュータインタフェースのための高密度畳み込み変換器
- Authors: Yi Ding, Yong Li, Hao Sun, Rui Liu, Chengxuan Tong, Chenyu Liu, Xinliang Zhou, Cuntai Guan,
- Abstract要約: 本稿では,CNN-Transformerに2つの新しいコンポーネントを組み込んだEEG-Deformerを紹介する。
EEG-Deformerは神経生理学的に意味のある脳領域から学習し、対応する認知タスクを学習する。
- 参考スコア(独自算出の注目度): 17.524441950422627
- License:
- Abstract: Effectively learning the temporal dynamics in electroencephalogram (EEG) signals is challenging yet essential for decoding brain activities using brain-computer interfaces (BCIs). Although Transformers are popular for their long-term sequential learning ability in the BCI field, most methods combining Transformers with convolutional neural networks (CNNs) fail to capture the coarse-to-fine temporal dynamics of EEG signals. To overcome this limitation, we introduce EEG-Deformer, which incorporates two main novel components into a CNN-Transformer: (1) a Hierarchical Coarse-to-Fine Transformer (HCT) block that integrates a Fine-grained Temporal Learning (FTL) branch into Transformers, effectively discerning coarse-to-fine temporal patterns; and (2) a Dense Information Purification (DIP) module, which utilizes multi-level, purified temporal information to enhance decoding accuracy. Comprehensive experiments on three representative cognitive tasks-cognitive attention, driving fatigue, and mental workload detection-consistently confirm the generalizability of our proposed EEG-Deformer, demonstrating that it either outperforms or performs comparably to existing state-of-the-art methods. Visualization results show that EEG-Deformer learns from neurophysiologically meaningful brain regions for the corresponding cognitive tasks. The source code can be found at https://github.com/yi-ding-cs/EEG-Deformer.
- Abstract(参考訳): 脳波(EEG)信号の時間的ダイナミクスを効果的に学習することは、脳-コンピュータインターフェース(BCI)を用いた脳活動の復号に不可欠である。
トランスフォーマーは、BCI分野における長期的なシーケンシャルな学習能力で人気があるが、ほとんどの手法は、トランスフォーマーと畳み込みニューラルネットワーク(CNN)を組み合わせることで、脳波信号の粗い時間的ダイナミクスを捉えることができない。
この制限を克服するために,1) 微細な時間学習(FTL) 分岐を変換器に統合する階層的粗度変換器(HCT) ブロックをCNN変換器に組み込んだEEG-Deformer と,2) マルチレベルで清浄な時間情報を利用して復号精度を高めるDense Information Purification (DIP) モジュールを導入する。
3つの代表的な認知タスクの認知的注意、運転疲労、精神作業負荷検出に関する総合的な実験は、提案した脳波変換器の一般化可能性を確認し、既存の最先端手法と相容れない性能を示す。
可視化の結果,脳波変換器は神経生理学的に意味のある脳領域から学習し,それに対応する認知機能を示すことがわかった。
ソースコードはhttps://github.com/yi-ding-cs/EEG-Deformerにある。
関連論文リスト
- Dual-TSST: A Dual-Branch Temporal-Spectral-Spatial Transformer Model for EEG Decoding [2.0721229324537833]
デュアルブランチ時間スペクトル空間変換器(Dual-TSST)を用いた新しいデコードアーキテクチャネットワークを提案する。
提案するDual-TSSTは様々なタスクにおいて優れており,平均精度80.67%の脳波分類性能が期待できる。
本研究は,高性能脳波デコーディングへの新たなアプローチを提供するとともに,将来のCNN-Transformerベースのアプリケーションにも大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-09-05T05:08:43Z) - EEGEncoder: Advancing BCI with Transformer-Based Motor Imagery Classification [11.687193535939798]
脳-コンピュータインタフェース(BCI)は、脳波信号を用いてデバイスを直接神経制御する。
脳波に基づく運動画像(MI)分類のための従来の機械学習手法は、手動の特徴抽出やノイズに対する感受性といった課題に遭遇する。
本稿では,これらの制限を克服するために改良型トランスフォーマーとTCNを用いたディープラーニングフレームワークであるEEGEncoderを紹介する。
論文 参考訳(メタデータ) (2024-04-23T09:51:24Z) - A Knowledge-Driven Cross-view Contrastive Learning for EEG
Representation [48.85731427874065]
本稿では,限られたラベルを持つ脳波から効果的な表現を抽出する知識駆動型クロスビューコントラスト学習フレームワーク(KDC2)を提案する。
KDC2法は脳波信号の頭皮と神経のビューを生成し、脳活動の内部および外部の表現をシミュレートする。
ニューラル情報整合性理論に基づく事前のニューラル知識をモデル化することにより、提案手法は不変かつ相補的なニューラル知識を抽出し、複合表現を生成する。
論文 参考訳(メタデータ) (2023-09-21T08:53:51Z) - EENED: End-to-End Neural Epilepsy Detection based on Convolutional
Transformer [6.24460694695129]
トランスフォーマーと畳み込みニューラルネットワーク(CNN)ベースのモデルは、脳波信号処理において有望な結果を示している。
本稿では,CNNとTransformerを組み合わせたエンドツーエンドの神経てんかん検出モデルであるEENEDを提案する。
論文 参考訳(メタデータ) (2023-05-17T18:16:33Z) - Focused Decoding Enables 3D Anatomical Detection by Transformers [64.36530874341666]
集束デコーダと呼ばれる3次元解剖学的構造検出のための新しい検出変換器を提案する。
Focused Decoderは、解剖学的領域のアトラスからの情報を活用して、クエリアンカーを同時にデプロイし、クロスアテンションの視野を制限する。
提案手法を利用可能な2つのCTデータセットに対して評価し、フォーカスドデコーダが強力な検出結果を提供するだけでなく、大量の注釈付きデータの必要性を軽減し、注意重みによる結果の例外的で直感的な説明性を示すことを示した。
論文 参考訳(メタデータ) (2022-07-21T22:17:21Z) - Error Correction Code Transformer [92.10654749898927]
本稿では,トランスフォーマーアーキテクチャを任意のブロック長で線形符号のソフトデコードに拡張することを提案する。
我々は,各チャネルの出力次元を高次元に符号化し,個別に処理すべきビット情報のより良い表現を行う。
提案手法は、トランスフォーマーの極端なパワーと柔軟性を示し、既存の最先端のニューラルデコーダを、その時間的複雑さのごく一部で大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-03-27T15:25:58Z) - 2021 BEETL Competition: Advancing Transfer Learning for Subject
Independence & Heterogenous EEG Data Sets [89.84774119537087]
我々は、診断とBCI(Brain-Computer-Interface)に関する2つの伝達学習課題を設計する。
第1タスクは、患者全体にわたる自動睡眠ステージアノテーションに対処する医療診断に重点を置いている。
タスク2はBrain-Computer Interface (BCI)に集中しており、被験者とデータセットの両方にわたる運動画像のデコードに対処する。
論文 参考訳(メタデータ) (2022-02-14T12:12:20Z) - Transformer-based Spatial-Temporal Feature Learning for EEG Decoding [4.8276709243429]
本稿では,主に注意機構に依存する新しい脳波復号法を提案する。
我々はより少ないパラメータで、脳波の多分類化における最先端のレベルに達しました。
脳-コンピュータインタフェース(BCI)の実用性を促進する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2021-06-11T00:48:18Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - Improving the performance of EEG decoding using anchored-STFT in
conjunction with gradient norm adversarial augmentation [0.22835610890984162]
EEG信号は空間分解能が低く、しばしばノイズやアーティファクトで歪められる。
ディープラーニングアルゴリズムは、隠れた意味のあるパターンを学習するのに非常に効率的であることが証明されている。
本研究では,新しい深層学習モデルと組み合わせた入力生成(機能抽出)手法を提案する。
論文 参考訳(メタデータ) (2020-11-30T11:18:06Z) - EEG-based Brain-Computer Interfaces (BCIs): A Survey of Recent Studies
on Signal Sensing Technologies and Computational Intelligence Approaches and
their Applications [65.32004302942218]
Brain-Computer Interface (BCI) はユーザとシステム間の強力なコミュニケーションツールである。
近年の技術進歩は、脳波(EEG)に基づく翻訳医療用BCIへの関心が高まっている。
論文 参考訳(メタデータ) (2020-01-28T10:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。