論文の概要: Mirror contrastive loss based sliding window transformer for subject-independent motor imagery based EEG signal recognition
- arxiv url: http://arxiv.org/abs/2409.00130v1
- Date: Thu, 29 Aug 2024 06:38:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 16:50:17.446171
- Title: Mirror contrastive loss based sliding window transformer for subject-independent motor imagery based EEG signal recognition
- Title(参考訳): 被写体非依存運動画像に基づく脳波信号認識のためのミラーコントラスト損失ベーススライディングウインドウトランス
- Authors: Jing Luo, Qi Mao, Weiwei Shi, Zhenghao Shi, Xiaofan Wang, Xiaofeng Lu, Xinhong Hei,
- Abstract要約: 左右運動の精神像は、脳の対側感覚運動野における事象関連脱同期を誘導する。
本研究では,MCL-SWT(Miror Contrastive Loss based Sliding Window Transformer)を提案する。
- 参考スコア(独自算出の注目度): 11.478425413519897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep learning models have been extensively utilized in motor imagery based EEG signal recognition, they often operate as black boxes. Motivated by neurological findings indicating that the mental imagery of left or right-hand movement induces event-related desynchronization (ERD) in the contralateral sensorimotor area of the brain, we propose a Mirror Contrastive Loss based Sliding Window Transformer (MCL-SWT) to enhance subject-independent motor imagery-based EEG signal recognition. Specifically, our proposed mirror contrastive loss enhances sensitivity to the spatial location of ERD by contrasting the original EEG signals with their mirror counterparts-mirror EEG signals generated by interchanging the channels of the left and right hemispheres of the EEG signals. Moreover, we introduce a temporal sliding window transformer that computes self-attention scores from high temporal resolution features, thereby improving model performance with manageable computational complexity. We evaluate the performance of MCL-SWT on subject-independent motor imagery EEG signal recognition tasks, and our experimental results demonstrate that MCL-SWT achieved accuracies of 66.48% and 75.62%, surpassing the state-of-the-art (SOTA) model by 2.82% and 2.17%, respectively. Furthermore, ablation experiments confirm the effectiveness of the proposed mirror contrastive loss. A code demo of MCL-SWT is available at https://github.com/roniusLuo/MCL_SWT.
- Abstract(参考訳): 深層学習モデルは運動画像に基づく脳波信号認識に広く利用されているが、ブラックボックスとして機能することが多い。
脳の片側感覚運動野における事象関連脱同期(ERD)を左右の運動の心的イメージが引き起こすことを示す神経学的知見により、ミラーコントラスト損失に基づくスライディングウインドウトランスフォーマー(MCL-SWT)を提案し、被写体非依存の運動像に基づく脳波信号認識を強化する。
具体的には,脳波信号の左半球と右半球のチャネルを交互に交換することにより,脳波信号とミラーミラー脳波信号とを対比することにより,脳波信号の空間的位置に対する感度を高める。
さらに,高時間分解能特徴から自己注意スコアを計算する時間的スライディングウインドウ変換器を導入し,管理可能な計算複雑性を伴ってモデル性能を向上させる。
脳波信号認識タスクにおけるMCL-SWTの性能評価を行い,MCL-SWTの精度は66.48%,75.62%であり,それぞれ2.82%,2.17%であった。
さらに, アブレーション実験により, 提案手法の有効性を確認した。
MCL-SWTのコードデモはhttps://github.com/roniusLuo/MCL_SWTで公開されている。
関連論文リスト
- Feature Selection via Dynamic Graph-based Attention Block in MI-based EEG Signals [0.0]
脳-コンピュータインタフェース(BCI)技術は、脳信号を分析して人間とコンピュータの直接的な相互作用を可能にする。
脳波信号は、しばしば低信号対雑音比、生理的アーティファクト、および個々の変数の影響を受けており、異なる特徴を抽出する際の課題を表している。
また、運動画像(MI)に基づく脳波信号には、MI特性との相関が低い特徴が含まれており、深部モデルの重みがそれらの特徴に偏っている可能性がある。
論文 参考訳(メタデータ) (2024-10-31T00:53:29Z) - SCDM: Unified Representation Learning for EEG-to-fNIRS Cross-Modal Generation in MI-BCIs [6.682531937245544]
ハイブリッドモーター脳-コンピュータインタフェース(MI-BCI)は、脳波(EEG)と機能近赤外分光(fNIRS)の両方を統合している。
脳波とfNIRS信号を同時に記録することは、両方のセンサーを同一の頭皮上に置くのが難しいため、非常に難しい。
本研究では,脳波からfNIRSへのクロスモーダル生成のためのフレームワークとして,空間時間制御拡散画像モデル(SCDM)を提案する。
論文 参考訳(メタデータ) (2024-07-01T13:37:23Z) - A Supervised Information Enhanced Multi-Granularity Contrastive Learning Framework for EEG Based Emotion Recognition [14.199298112101802]
本研究では,脳波に基づく感情認識(SICLEER, Supervised Info-enhanced Contrastive Learning)のための新しいコントラスト学習フレームワークを提案する。
自己教師付きコントラスト学習損失と教師付き分類損失を組み合わせた共同学習モデルを提案する。
論文 参考訳(メタデータ) (2024-05-12T11:51:00Z) - An Extended Variational Mode Decomposition Algorithm Developed Speech
Emotion Recognition Performance [15.919990281329085]
本研究では,有意な音声特徴を識別するための変分モード分解アルゴリズムであるVGG-optiVMDを提案する。
様々な特徴ベクトルを用いて、異なるデータベース上のVGG16ネットワークをトレーニングし、VGG-optiVMDと信頼性を評価する。
その結果,信号サンプル率の微調整と分解パラメータとの相乗関係を分類精度で確認した。
論文 参考訳(メタデータ) (2023-12-18T05:24:03Z) - ESTformer: Transformer Utilizing Spatiotemporal Dependencies for EEG
Super-resolution [14.2426667945505]
ESTformerは、Transformerに基づいた一時的な依存関係を利用するEEGフレームワークである。
ESTformerは、空間と時間次元に位置符号化法とマルチヘッド自己認識機構を適用する。
論文 参考訳(メタデータ) (2023-12-03T12:26:32Z) - Joint fMRI Decoding and Encoding with Latent Embedding Alignment [77.66508125297754]
我々はfMRIデコーディングと符号化の両方に対処する統合フレームワークを導入する。
本モデルでは、fMRI信号から視覚刺激を同時に回復し、統合された枠組み内の画像から脳活動を予測する。
論文 参考訳(メタデータ) (2023-03-26T14:14:58Z) - Exploring Invariant Representation for Visible-Infrared Person
Re-Identification [77.06940947765406]
異なるスペクトルを横断する歩行者にアイデンティティを関連付けることを目的とした、クロススペクトルの人物再識別は、モダリティの相違の主な課題に直面している。
本稿では、ロバスト機能マイニングネットワーク(RFM)と呼ばれるエンドツーエンドのハイブリッド学習フレームワークにおいて、画像レベルと特徴レベルの両方の問題に対処する。
RegDBとSYSU-MM01という2つの標準的なクロススペクトル人物識別データセットの実験結果により,最先端の性能が示された。
論文 参考訳(メタデータ) (2023-02-02T05:24:50Z) - Multi-Channel Convolutional Analysis Operator Learning for Dual-Energy
CT Reconstruction [108.06731611196291]
我々は,多チャンネル畳み込み解析演算子学習法(MCAOL)を開発した。
本研究では,低エネルギー,高エネルギーで減衰画像を共同で再構成する最適化手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T14:22:54Z) - Iris Recognition Based on SIFT Features [63.07521951102555]
アイリス画像の認識にはSIFT(Scale Invariant Feature Transformation)を用いる。
我々は、SIFT演算子を用いて、スケール空間における特徴SIFT特徴点を抽出し、特徴点周辺のテクスチャ情報に基づいてマッチングを行う。
また、SIFT手法と、極座標変換とLog-Gaborウェーブレットに基づく一般的なマッチング手法の相補性を示す。
論文 参考訳(メタデータ) (2021-10-30T04:55:33Z) - MotionHint: Self-Supervised Monocular Visual Odometry with Motion
Constraints [70.76761166614511]
モノクローナルビジュアル・オドメトリー(VO)のための新しい自己教師型アルゴリズムMotionHintを提案する。
我々のMotionHintアルゴリズムは、既存のオープンソースSSM-VOシステムに容易に適用できる。
論文 参考訳(メタデータ) (2021-09-14T15:35:08Z) - Statistical control for spatio-temporal MEG/EEG source imaging with
desparsified multi-task Lasso [102.84915019938413]
脳磁図(MEG)や脳電図(EEG)のような非侵襲的手法は、非侵襲的手法を約束する。
ソースローカライゼーション(ソースイメージング)の問題は、しかしながら、高次元の統計的推測問題を引き起こす。
この問題に対処するために,分離されたマルチタスクラッソ(ecd-MTLasso)のアンサンブルを提案する。
論文 参考訳(メタデータ) (2020-09-29T21:17:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。