論文の概要: EEG-Inception: An Accurate and Robust End-to-End Neural Network for
EEG-based Motor Imagery Classification
- arxiv url: http://arxiv.org/abs/2101.10932v3
- Date: Mon, 8 Mar 2021 15:51:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 09:07:14.580003
- Title: EEG-Inception: An Accurate and Robust End-to-End Neural Network for
EEG-based Motor Imagery Classification
- Title(参考訳): EEG-Inception:脳波に基づく運動画像分類のための正確かつ堅牢なエンドツーエンドニューラルネットワーク
- Authors: Ce Zhang, Young-Keun Kim, Azim Eskandarian
- Abstract要約: 本稿では,脳波に基づく運動画像(MI)分類のための新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
提案したCNNモデル、すなわちEEG-Inceptionは、Inception-Timeネットワークのバックボーン上に構築されている。
提案するネットワークは、生のEEG信号を入力とし、複雑なEEG信号前処理を必要としないため、エンドツーエンドの分類である。
- 参考スコア(独自算出の注目度): 123.93460670568554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classification of EEG-based motor imagery (MI) is a crucial non-invasive
application in brain-computer interface (BCI) research. This paper proposes a
novel convolutional neural network (CNN) architecture for accurate and robust
EEG-based MI classification that outperforms the state-of-the-art methods. The
proposed CNN model, namely EEG-Inception, is built on the backbone of the
Inception-Time network, which showed to be highly efficient and accurate for
time-series classification. Also, the proposed network is an end-to-end
classification, as it takes the raw EEG signals as the input and does not
require complex EEG signal-preprocessing. Furthermore, this paper proposes a
novel data augmentation method for EEG signals to enhance the accuracy, at
least by 3%, and reduce overfitting with limited BCI datasets. The proposed
model outperforms all the state-of-the-art methods by achieving the average
accuracy of 88.4% and 88.6% on the 2008 BCI Competition IV 2a (four-classes)
and 2b datasets (binary-classes), respectively. Furthermore, it takes less than
0.025 seconds to test a sample suitable for real-time processing. Moreover, the
classification standard deviation for nine different subjects achieves the
lowest value of 5.5 for the 2b dataset and 7.1 for the 2a dataset, which
validates that the proposed method is highly robust. From the experiment
results, it can be inferred that the EEG-Inception network exhibits a strong
potential as a subject-independent classifier for EEG-based MI tasks.
- Abstract(参考訳): EEGベースの運動画像(MI)の分類は、脳-コンピュータインタフェース(BCI)研究における重要な非侵襲的応用である。
本稿では,最先端手法に勝る正確かつロバストな脳波に基づくmi分類のための新しい畳み込みニューラルネットワーク(cnn)アーキテクチャを提案する。
提案するcnnモデル(eeg-inception)は、インセプション時間ネットワークのバックボーンに構築されており、時系列分類において非常に効率的かつ正確であることが示されている。
また、提案するネットワークは、生のEEG信号を入力とし、複雑なEEG信号前処理を必要としないため、エンドツーエンドの分類である。
さらに,脳波信号の精度を少なくとも3%向上し,限られたBCIデータセットによるオーバーフィッティングを低減するため,新しいデータ拡張手法を提案する。
提案モデルは、2008年のBCIコンペティションIV 2a(4クラス)と2bデータセット(2クラス)の平均精度88.4%と88.6%を達成することにより、すべての最新手法を上回っている。
さらに、リアルタイム処理に適したサンプルをテストするのに0.025秒未満かかります。
さらに、9種類の被験者の分類基準偏差は、2bデータセットの5.5と2aデータセットの7.1の最低値であり、提案手法が極めて堅牢であることを示す。
実験結果から、EEG-Inceptionネットワークは、EEGベースのMIタスクの主観非依存な分類器として強力なポテンシャルを示すと推測できる。
関連論文リスト
- Dual-TSST: A Dual-Branch Temporal-Spectral-Spatial Transformer Model for EEG Decoding [2.0721229324537833]
デュアルブランチ時間スペクトル空間変換器(Dual-TSST)を用いた新しいデコードアーキテクチャネットワークを提案する。
提案するDual-TSSTは様々なタスクにおいて優れており,平均精度80.67%の脳波分類性能が期待できる。
本研究は,高性能脳波デコーディングへの新たなアプローチを提供するとともに,将来のCNN-Transformerベースのアプリケーションにも大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-09-05T05:08:43Z) - EKGNet: A 10.96{\mu}W Fully Analog Neural Network for Intra-Patient
Arrhythmia Classification [79.7946379395238]
心電図不整脈分類におけるアナログ計算と深層学習を組み合わせた統合的アプローチを提案する。
本稿では,低消費電力で高精度にアーカイブするハードウェア効率と完全アナログ不整脈分類アーキテクチャであるEKGNetを提案する。
論文 参考訳(メタデータ) (2023-10-24T02:37:49Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - EEG-based Emotion Style Transfer Network for Cross-dataset Emotion
Recognition [45.26847258736848]
本稿では,脳波に基づく感情スタイル伝達ネットワーク(E2STN)を提案する。
E2STNは、クロスデータセットのEEG感情認識タスクにおける最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2023-08-09T16:54:40Z) - EEG-Fest: Few-shot based Attention Network for Driver's Vigilance
Estimation with EEG Signals [160.57870373052577]
運転士の警戒の欠如は、ほとんどの車両事故の主な原因である。
EEGはドライバーの眠気推定のための信頼性と効率的なツールである。
論文 参考訳(メタデータ) (2022-11-07T21:35:08Z) - A SPA-based Manifold Learning Framework for Motor Imagery EEG Data
Classification [2.4727719996518487]
本稿では,運動画像(MI)タスクから2種類の脳波データを分類するための多様体学習フレームワークを提案する。
特徴抽出のために、前処理された脳波信号から共通空間パターン(CSP)によって実装される。
分類のための特徴の近傍では、データの支持に対する局所近似が得られ、次に最も近い支持を持つクラスに特徴が割り当てられる。
論文 参考訳(メタデータ) (2021-07-30T06:18:05Z) - CNN-based Approaches For Cross-Subject Classification in Motor Imagery:
From The State-of-The-Art to DynamicNet [0.2936007114555107]
運動画像(MI)ベースの脳-コンピュータインタフェース(BCI)システムは、コミュニケーションと制御の代替手段を提供するためにますます採用されています。
信頼できるBCIシステムを得るには、脳信号からMIを正確に分類することが不可欠です。
ディープラーニングアプローチは、標準的な機械学習技術の有効な代替手段として現れ始めている。
論文 参考訳(メタデータ) (2021-05-17T14:57:13Z) - Common Spatial Generative Adversarial Networks based EEG Data
Augmentation for Cross-Subject Brain-Computer Interface [4.8276709243429]
脳波に基づく脳-コンピュータインタフェース(BCI)のクロスオブジェクト応用は、知覚が難しい大きな個人差と複雑な特徴によって常に制限されてきた。
CS-GAN(Common Space GAN)と呼ばれるGAN(Generative Adversarial Network)に基づくクロスオブジェクトEEG分類フレームワークを提案する。
我々のフレームワークは、オブジェクト間の問題に対処し、BCIの実践的応用を促進するための有望な方法を提供する。
論文 参考訳(メタデータ) (2021-02-08T10:37:03Z) - EEG-TCNet: An Accurate Temporal Convolutional Network for Embedded
Motor-Imagery Brain-Machine Interfaces [15.07343602952606]
本稿では、トレーニング可能なパラメータをほとんど必要とせず、優れた精度を実現する新しい時間畳み込みネットワーク(TCN)であるEEG-TCNetを提案する。
メモリフットプリントが低く、推論の計算量も少ないため、エッジのリソース制限されたデバイスの組み込み分類に適している。
論文 参考訳(メタデータ) (2020-05-31T21:45:45Z) - ECG-DelNet: Delineation of Ambulatory Electrocardiograms with Mixed
Quality Labeling Using Neural Networks [69.25956542388653]
ディープラーニング(DL)アルゴリズムは、学術的、産業的にも重くなっている。
セグメンテーションフレームワークにECGの検出とデライン化を組み込むことにより、低解釈タスクにDLをうまく適用できることを実証する。
このモデルは、PhyloNetのQTデータベースを使用して、105個の増幅ECG記録から訓練された。
論文 参考訳(メタデータ) (2020-05-11T16:29:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。