論文の概要: EEG-Deformer: A Dense Convolutional Transformer for Brain-computer Interfaces
- arxiv url: http://arxiv.org/abs/2405.00719v1
- Date: Thu, 25 Apr 2024 18:00:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-05 17:44:45.350212
- Title: EEG-Deformer: A Dense Convolutional Transformer for Brain-computer Interfaces
- Title(参考訳): EEG-Deformer:脳-コンピュータインタフェースのための高密度畳み込み変換器
- Authors: Yi Ding, Yong Li, Hao Sun, Rui Liu, Chengxuan Tong, Cuntai Guan,
- Abstract要約: 本稿では,CNN-Transformerに2つの新しいコンポーネントを組み込んだEEG-Deformerを紹介する。
EEG-Deformerは神経生理学的に意味のある脳領域から学習し、対応する認知タスクを学習する。
- 参考スコア(独自算出の注目度): 18.78352335963396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effectively learning the temporal dynamics in electroencephalogram (EEG) signals is challenging yet essential for decoding brain activities using brain-computer interfaces (BCIs). Although Transformers are popular for their long-term sequential learning ability in the BCI field, most methods combining Transformers with convolutional neural networks (CNNs) fail to capture the coarse-to-fine temporal dynamics of EEG signals. To overcome this limitation, we introduce EEG-Deformer, which incorporates two main novel components into a CNN-Transformer: (1) a Hierarchical Coarse-to-Fine Transformer (HCT) block that integrates a Fine-grained Temporal Learning (FTL) branch into Transformers, effectively discerning coarse-to-fine temporal patterns; and (2) a Dense Information Purification (DIP) module, which utilizes multi-level, purified temporal information to enhance decoding accuracy. Comprehensive experiments on three representative cognitive tasks consistently verify the generalizability of our proposed EEG-Deformer, demonstrating that it either outperforms existing state-of-the-art methods or is comparable to them. Visualization results show that EEG-Deformer learns from neurophysiologically meaningful brain regions for the corresponding cognitive tasks. The source code can be found at https://github.com/yi-ding-cs/EEG-Deformer.
- Abstract(参考訳): 脳波(EEG)信号の時間的ダイナミクスを効果的に学習することは、脳-コンピュータインターフェース(BCI)を用いた脳活動の復号に不可欠である。
トランスフォーマーは、BCI分野における長期的なシーケンシャルな学習能力で人気があるが、ほとんどの手法は、トランスフォーマーと畳み込みニューラルネットワーク(CNN)を組み合わせることで、脳波信号の粗い時間的ダイナミクスを捉えることができない。
この制限を克服するために,1) 微細な時間学習(FTL) 分岐を変換器に統合する階層的粗度変換器(HCT) ブロックをCNN変換器に組み込んだEEG-Deformer と,2) マルチレベルで清浄な時間情報を利用して復号精度を高めるDense Information Purification (DIP) モジュールを導入する。
3つの代表的な認知タスクに関する総合的な実験は、提案した脳波変換器の一般化可能性の検証を一貫して行っており、既存の最先端手法よりも優れているか、それに匹敵するものであることを実証している。
可視化の結果,脳波変換器は神経生理学的に意味のある脳領域から学習し,それに対応する認知機能を示すことがわかった。
ソースコードはhttps://github.com/yi-ding-cs/EEG-Deformerにある。
関連論文リスト
- EEGEncoder: Advancing BCI with Transformer-Based Motor Imagery Classification [0.0]
本稿では,変圧器モデルを用いて制限を克服するディープラーニングフレームワークであるEEGEncoderを紹介する。
我々の革新的なマルチスケール融合アーキテクチャは、即時的特徴と拡張時的特徴の両方をキャプチャし、MIタスクの分類精度を向上させる。
BCIコンペティションIVデータセット2aでテストしたところ、我々のモデルは最先端のパフォーマンスで新しいベンチマークを確立しました。
論文 参考訳(メタデータ) (2024-04-23T09:51:24Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - A Knowledge-Driven Cross-view Contrastive Learning for EEG
Representation [48.85731427874065]
本稿では,限られたラベルを持つ脳波から効果的な表現を抽出する知識駆動型クロスビューコントラスト学習フレームワーク(KDC2)を提案する。
KDC2法は脳波信号の頭皮と神経のビューを生成し、脳活動の内部および外部の表現をシミュレートする。
ニューラル情報整合性理論に基づく事前のニューラル知識をモデル化することにより、提案手法は不変かつ相補的なニューラル知識を抽出し、複合表現を生成する。
論文 参考訳(メタデータ) (2023-09-21T08:53:51Z) - EENED: End-to-End Neural Epilepsy Detection based on Convolutional
Transformer [6.24460694695129]
トランスフォーマーと畳み込みニューラルネットワーク(CNN)ベースのモデルは、脳波信号処理において有望な結果を示している。
本稿では,CNNとTransformerを組み合わせたエンドツーエンドの神経てんかん検出モデルであるEENEDを提案する。
論文 参考訳(メタデータ) (2023-05-17T18:16:33Z) - An intertwined neural network model for EEG classification in
brain-computer interfaces [0.6696153817334769]
脳コンピュータインタフェース(BCI)は、脳とコンピュータまたは外部装置との間の非刺激的直接的、時折双方向通信リンクである。
マルチクラスモータ画像分類における最先端性能を実現するために特別に設計されたディープニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-04T09:00:34Z) - Focused Decoding Enables 3D Anatomical Detection by Transformers [64.36530874341666]
集束デコーダと呼ばれる3次元解剖学的構造検出のための新しい検出変換器を提案する。
Focused Decoderは、解剖学的領域のアトラスからの情報を活用して、クエリアンカーを同時にデプロイし、クロスアテンションの視野を制限する。
提案手法を利用可能な2つのCTデータセットに対して評価し、フォーカスドデコーダが強力な検出結果を提供するだけでなく、大量の注釈付きデータの必要性を軽減し、注意重みによる結果の例外的で直感的な説明性を示すことを示した。
論文 参考訳(メタデータ) (2022-07-21T22:17:21Z) - Error Correction Code Transformer [92.10654749898927]
本稿では,トランスフォーマーアーキテクチャを任意のブロック長で線形符号のソフトデコードに拡張することを提案する。
我々は,各チャネルの出力次元を高次元に符号化し,個別に処理すべきビット情報のより良い表現を行う。
提案手法は、トランスフォーマーの極端なパワーと柔軟性を示し、既存の最先端のニューラルデコーダを、その時間的複雑さのごく一部で大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-03-27T15:25:58Z) - 2021 BEETL Competition: Advancing Transfer Learning for Subject
Independence & Heterogenous EEG Data Sets [89.84774119537087]
我々は、診断とBCI(Brain-Computer-Interface)に関する2つの伝達学習課題を設計する。
第1タスクは、患者全体にわたる自動睡眠ステージアノテーションに対処する医療診断に重点を置いている。
タスク2はBrain-Computer Interface (BCI)に集中しており、被験者とデータセットの両方にわたる運動画像のデコードに対処する。
論文 参考訳(メタデータ) (2022-02-14T12:12:20Z) - Transformer-based Spatial-Temporal Feature Learning for EEG Decoding [4.8276709243429]
本稿では,主に注意機構に依存する新しい脳波復号法を提案する。
我々はより少ないパラメータで、脳波の多分類化における最先端のレベルに達しました。
脳-コンピュータインタフェース(BCI)の実用性を促進する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2021-06-11T00:48:18Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - Improving the performance of EEG decoding using anchored-STFT in
conjunction with gradient norm adversarial augmentation [0.22835610890984162]
EEG信号は空間分解能が低く、しばしばノイズやアーティファクトで歪められる。
ディープラーニングアルゴリズムは、隠れた意味のあるパターンを学習するのに非常に効率的であることが証明されている。
本研究では,新しい深層学習モデルと組み合わせた入力生成(機能抽出)手法を提案する。
論文 参考訳(メタデータ) (2020-11-30T11:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。