論文の概要: AGTCNet: A Graph-Temporal Approach for Principled Motor Imagery EEG Classification
- arxiv url: http://arxiv.org/abs/2506.21338v1
- Date: Thu, 26 Jun 2025 14:49:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:10.141697
- Title: AGTCNet: A Graph-Temporal Approach for Principled Motor Imagery EEG Classification
- Title(参考訳): AGTCNet: 原理的運動画像脳波分類のためのグラフ・テンポラルアプローチ
- Authors: Galvin Brice S. Lim, Brian Godwin S. Lim, Argel A. Bandala, John Anthony C. Jose, Timothy Scott C. Chu, Edwin Sybingco,
- Abstract要約: 本研究では,運動画像脳波(MI-EEG)分類のための新しいグラフ時間モデルAGTCNetを提案する。
49.87%のモデルサイズ減少、64.65%の推論時間、より短い入力EEG信号により、AGTCNetは被検者に依存しない分類において66.82%の移動平均精度を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Brain-computer interface (BCI) technology utilizing electroencephalography (EEG) marks a transformative innovation, empowering motor-impaired individuals to engage with their environment on equal footing. Despite its promising potential, developing subject-invariant and session-invariant BCI systems remains a significant challenge due to the inherent complexity and variability of neural activity across individuals and over time, compounded by EEG hardware constraints. While prior studies have sought to develop robust BCI systems, existing approaches remain ineffective in capturing the intricate spatiotemporal dependencies within multichannel EEG signals. This study addresses this gap by introducing the attentive graph-temporal convolutional network (AGTCNet), a novel graph-temporal model for motor imagery EEG (MI-EEG) classification. Specifically, AGTCNet leverages the topographic configuration of EEG electrodes as an inductive bias and integrates graph convolutional attention network (GCAT) to jointly learn expressive spatiotemporal EEG representations. The proposed model significantly outperformed existing MI-EEG classifiers, achieving state-of-the-art performance while utilizing a compact architecture, underscoring its effectiveness and practicality for BCI deployment. With a 49.87% reduction in model size, 64.65% faster inference time, and shorter input EEG signal, AGTCNet achieved a moving average accuracy of 66.82% for subject-independent classification on the BCI Competition IV Dataset 2a, which further improved to 82.88% when fine-tuned for subject-specific classification. On the EEG Motor Movement/Imagery Dataset, AGTCNet achieved moving average accuracies of 64.14% and 85.22% for 4-class and 2-class subject-independent classifications, respectively, with further improvements to 72.13% and 90.54% for subject-specific classifications.
- Abstract(参考訳): 脳波(EEG)を利用した脳-コンピュータインタフェース(BCI)技術は変革的な革新であり、運動障害のある個人が平等な足場で環境と関わり合うことを可能にする。
有望な可能性にもかかわらず、主題不変およびセッション不変のBCIシステムの開発は、EEGハードウェアの制約によって複合された個人と時間にわたる神経活動の固有の複雑さと変動性のために、依然として重要な課題である。
従来の研究では、堅牢なBCIシステムの開発が試みられていたが、既存のアプローチは、マルチチャネル脳波信号内の複雑な時空間依存性を捉えるのに効果がない。
本研究では,運動画像脳波(MI-EEG)分類の新しいグラフ時間モデルであるAGTCNetを導入することで,このギャップを解消する。
特に、AGTCNetは、脳波電極の地形構成を誘導バイアスとして利用し、グラフ畳み込み注意ネットワーク(GCAT)を統合して、表現的時空間脳波表現を共同学習する。
提案手法は, 既存のMI-EEG分類器よりも優れ, 小型アーキテクチャを生かしながら最先端の性能を実現し, BCI導入の有効性と実用性を実証した。
モデルサイズが49.87%減少し、64.65%高速な推論時間、より短い入力EEG信号により、AGTCNetはBCIコンペティションIVデータセット2aにおける被検体非依存の分類において66.82%の移動平均精度を達成し、被検体固有の分類のために微調整された場合には82.88%に改善した。
EEG Motor Movement/Imagery Datasetにおいて、AGTCNetは4クラスと2クラスにそれぞれ64.14%と85.22%の移動平均精度を達成し、さらに72.13%と90.54%に改善した。
関連論文リスト
- CEReBrO: Compact Encoder for Representations of Brain Oscillations Using Efficient Alternating Attention [53.539020807256904]
交互注意(CEReBrO)を用いた脳振動の表現のための圧縮法について紹介する。
トークン化方式は、チャネルごとのパッチで脳波信号を表現します。
本研究では,チャネル内時間的ダイナミックスとチャネル間空間的相関を共同でモデル化し,通常の自己アテンションに比べて6倍少ないメモリで2倍の速度向上を実現するための注意機構を提案する。
論文 参考訳(メタデータ) (2025-01-18T21:44:38Z) - EEG-DCNet: A Fast and Accurate MI-EEG Dilated CNN Classification Method [10.791605945979995]
EEG-Dilated Convolution Network (DCNet) と呼ばれる新しいマルチスケールアラス畳み込みニューラルネットワーク(CNN)モデルを提案する。
我々は1時間1ドルの畳み込み層を組み込み、EEG-DCNetのマルチブランチ並列アラス畳み込みアーキテクチャを利用する。
本稿では,EEG-DCNetが既存のSOTA(State-of-the-art)アプローチよりも,分類精度とKappaスコアの点で優れていることを示す。
論文 参考訳(メタデータ) (2024-11-12T09:47:50Z) - EEG_RL-Net: Enhancing EEG MI Classification through Reinforcement Learning-Optimised Graph Neural Networks [7.9035081192335115]
本稿では、EEG_GLT-NetからトレーニングされたEEG GCNブロックを隣接行列密度13.39%で組み込んだEEG_GLT-Netフレームワークの強化であるEEG_RL-Netを提案する。
EEG_RL-Netモデルは例外的な分類性能を示し、25ミリ秒以内の20人の被験者の平均精度は96.40%である。
論文 参考訳(メタデータ) (2024-04-26T13:09:50Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - EEG-Inception: An Accurate and Robust End-to-End Neural Network for
EEG-based Motor Imagery Classification [123.93460670568554]
本稿では,脳波に基づく運動画像(MI)分類のための新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
提案したCNNモデル、すなわちEEG-Inceptionは、Inception-Timeネットワークのバックボーン上に構築されている。
提案するネットワークは、生のEEG信号を入力とし、複雑なEEG信号前処理を必要としないため、エンドツーエンドの分類である。
論文 参考訳(メタデータ) (2021-01-24T19:03:10Z) - GCNs-Net: A Graph Convolutional Neural Network Approach for Decoding
Time-resolved EEG Motor Imagery Signals [8.19994663278877]
グラフ畳み込みニューラルネットワーク(GCN)に基づく新しいディープラーニングフレームワークを提案し,生の脳波信号の復号性能を向上させる。
導入されたアプローチは、パーソナライズされた予測とグループ的な予測の両方に収束することが示されている。
論文 参考訳(メタデータ) (2020-06-16T04:57:12Z) - EEG-TCNet: An Accurate Temporal Convolutional Network for Embedded
Motor-Imagery Brain-Machine Interfaces [15.07343602952606]
本稿では、トレーニング可能なパラメータをほとんど必要とせず、優れた精度を実現する新しい時間畳み込みネットワーク(TCN)であるEEG-TCNetを提案する。
メモリフットプリントが低く、推論の計算量も少ないため、エッジのリソース制限されたデバイスの組み込み分類に適している。
論文 参考訳(メタデータ) (2020-05-31T21:45:45Z) - ECG-DelNet: Delineation of Ambulatory Electrocardiograms with Mixed
Quality Labeling Using Neural Networks [69.25956542388653]
ディープラーニング(DL)アルゴリズムは、学術的、産業的にも重くなっている。
セグメンテーションフレームワークにECGの検出とデライン化を組み込むことにより、低解釈タスクにDLをうまく適用できることを実証する。
このモデルは、PhyloNetのQTデータベースを使用して、105個の増幅ECG記録から訓練された。
論文 参考訳(メタデータ) (2020-05-11T16:29:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。