論文の概要: Transformer-based Spatial-Temporal Feature Learning for EEG Decoding
- arxiv url: http://arxiv.org/abs/2106.11170v1
- Date: Fri, 11 Jun 2021 00:48:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-27 09:05:25.755152
- Title: Transformer-based Spatial-Temporal Feature Learning for EEG Decoding
- Title(参考訳): 脳波復号のためのトランスフォーマーを用いた時空間特徴学習
- Authors: Yonghao Song, Xueyu Jia, Lie Yang, Longhan Xie
- Abstract要約: 本稿では,主に注意機構に依存する新しい脳波復号法を提案する。
我々はより少ないパラメータで、脳波の多分類化における最先端のレベルに達しました。
脳-コンピュータインタフェース(BCI)の実用性を促進する大きな可能性を秘めている。
- 参考スコア(独自算出の注目度): 4.8276709243429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: At present, people usually use some methods based on convolutional neural
networks (CNNs) for Electroencephalograph (EEG) decoding. However, CNNs have
limitations in perceiving global dependencies, which is not adequate for common
EEG paradigms with a strong overall relationship. Regarding this issue, we
propose a novel EEG decoding method that mainly relies on the attention
mechanism. The EEG data is firstly preprocessed and spatially filtered. And
then, we apply attention transforming on the feature-channel dimension so that
the model can enhance more relevant spatial features. The most crucial step is
to slice the data in the time dimension for attention transforming, and finally
obtain a highly distinguishable representation. At this time, global averaging
pooling and a simple fully-connected layer are used to classify different
categories of EEG data. Experiments on two public datasets indicate that the
strategy of attention transforming effectively utilizes spatial and temporal
features. And we have reached the level of the state-of-the-art in
multi-classification of EEG, with fewer parameters. As far as we know, it is
the first time that a detailed and complete method based on the transformer
idea has been proposed in this field. It has good potential to promote the
practicality of brain-computer interface (BCI). The source code can be found
at: \textit{https://github.com/anranknight/EEG-Transformer}.
- Abstract(参考訳): 現在、人々は通常、脳波デコードのための畳み込みニューラルネットワーク(CNN)に基づくいくつかの手法を使っている。
しかし、CNNはグローバルな依存関係を認識するのに制限があるため、全体的な関係が強い一般的なEEGパラダイムには不十分である。
本稿では,主に注意機構に依存する新しい脳波復号法を提案する。
EEGデータは、まず前処理され、空間的にフィルタリングされる。
そして,特徴チャネル次元に注意変換を適用し,モデルがより関連性の高い空間的特徴を向上できるようにする。
最も重要なステップは、注意変換のために時間次元のデータをスライスし、最終的に非常に識別可能な表現を得ることです。
このとき、グローバル平均プールと単純な完全接続層を使用して、脳波データの異なるカテゴリを分類する。
2つの公開データセットの実験は、注意変換の戦略が空間的特徴と時間的特徴を効果的に活用していることを示している。
そして我々は、より少ないパラメータで、EEGのマルチクラス化における最先端のレベルに達しました。
私たちが知る限り、この分野でトランスフォーマーのアイデアに基づく詳細かつ完全な方法が提案されたのは初めてである。
脳-コンピュータインタフェース(BCI)の実用性を促進する可能性がある。
ソースコードは \textit{https://github.com/anranknight/eeg-transformer} で見ることができる。
関連論文リスト
- How Homogenizing the Channel-wise Magnitude Can Enhance EEG Classification Model? [4.0871083166108395]
我々は、EEGデータ前処理にシンプルで効果的なアプローチを提案する。
提案手法はまず,逆チャネルワイドマグニチュード均質化により,脳波データを符号化画像に変換する。
これにより、巨大なディープラーニングネットワークを使わずに、脳波学習プロセスを改善することができる。
論文 参考訳(メタデータ) (2024-07-19T09:11:56Z) - Large Brain Model for Learning Generic Representations with Tremendous EEG Data in BCI [6.926908480247951]
大型脳モデル(LaBraM)と呼ばれる脳波の統一基盤モデルを提案する。
LaBraMは、EEG信号をEEGチャネルパッチにセグメント化することで、データセット間の学習を可能にする。
次に、マスクされたEEGチャネルパッチの元のニューラルコードを予測することにより、ニューラルトランスフォーマーを事前訓練する。
論文 参考訳(メタデータ) (2024-05-29T05:08:16Z) - EEG-Deformer: A Dense Convolutional Transformer for Brain-computer Interfaces [17.524441950422627]
本稿では,CNN-Transformerに2つの新しいコンポーネントを組み込んだEEG-Deformerを紹介する。
EEG-Deformerは神経生理学的に意味のある脳領域から学習し、対応する認知タスクを学習する。
論文 参考訳(メタデータ) (2024-04-25T18:00:46Z) - EEG-ITNet: An Explainable Inception Temporal Convolutional Network for
Motor Imagery Classification [0.5616884466478884]
我々はEEG-ITNetと呼ばれるエンドツーエンドのディープラーニングアーキテクチャを提案する。
本モデルでは,多チャンネル脳波信号からスペクトル,空間,時間情報を抽出することができる。
EEG-ITNetは、異なるシナリオにおける分類精度を最大5.9%改善する。
論文 参考訳(メタデータ) (2022-04-14T13:18:43Z) - Learning A 3D-CNN and Transformer Prior for Hyperspectral Image
Super-Resolution [80.93870349019332]
本稿では,CNN の代わりに Transformer を用いて HSI の事前学習を行う新しい HSISR 手法を提案する。
具体的には、まず勾配アルゴリズムを用いてHSISRモデルを解き、次に展開ネットワークを用いて反復解過程をシミュレートする。
論文 参考訳(メタデータ) (2021-11-27T15:38:57Z) - HAT: Hierarchical Aggregation Transformers for Person Re-identification [87.02828084991062]
我々は,CNNとトランスフォーマーの両方の利点を,高性能な画像ベース人物Re-IDに適用する。
作業は、画像ベースのRe-IDのためのCNNとTransformerの両方の利点を初めて活用する。
論文 参考訳(メタデータ) (2021-07-13T09:34:54Z) - CADDA: Class-wise Automatic Differentiable Data Augmentation for EEG
Signals [92.60744099084157]
本研究では、勾配に基づく学習に適した微分可能データ拡張を提案する。
本研究は,臨床関連睡眠ステージ分類課題におけるアプローチの意義を示す。
論文 参考訳(メタデータ) (2021-06-25T15:28:48Z) - TELESTO: A Graph Neural Network Model for Anomaly Classification in
Cloud Services [77.454688257702]
機械学習(ML)と人工知能(AI)はITシステムの運用とメンテナンスに適用される。
1つの方向は、修復自動化を可能にするために、繰り返し発生する異常タイプを認識することである。
与えられたデータの次元変化に不変な手法を提案する。
論文 参考訳(メタデータ) (2021-02-25T14:24:49Z) - EEG-Inception: An Accurate and Robust End-to-End Neural Network for
EEG-based Motor Imagery Classification [123.93460670568554]
本稿では,脳波に基づく運動画像(MI)分類のための新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
提案したCNNモデル、すなわちEEG-Inceptionは、Inception-Timeネットワークのバックボーン上に構築されている。
提案するネットワークは、生のEEG信号を入力とし、複雑なEEG信号前処理を必要としないため、エンドツーエンドの分類である。
論文 参考訳(メタデータ) (2021-01-24T19:03:10Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - EEG Channel Interpolation Using Deep Encoder-decoder Netwoks [6.420508750179696]
「Pop」アーティファクトは、表面と電極との間の接続が自然に失われることに由来する。
脳波は密度の高い電極配列を使用するため、脳波データの収集において最も広く見られるアーティファクトの1つである。
本稿では,ディープエンコーダデコーダネットワークを用いて,脳の問題を自己学習タスクとみなす。
論文 参考訳(メタデータ) (2020-09-21T21:57:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。