論文の概要: Multi-View Contrastive Network (MVCNet) for Motor Imagery Classification
- arxiv url: http://arxiv.org/abs/2502.17482v2
- Date: Thu, 27 Feb 2025 10:31:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:52:21.947490
- Title: Multi-View Contrastive Network (MVCNet) for Motor Imagery Classification
- Title(参考訳): モータ画像分類のためのMulti-View Contrastive Network (MVCNet)
- Authors: Ziwei Wang, Siyang Li, Xiaoqing Chen, Wei Li, Dongrui Wu,
- Abstract要約: 本稿では,BCIにおけるMI EEGデコーディングのための知識駆動型時間空間ベースマルチビューコントラストネットワーク(MVCNet)を提案する。
MVCNetは、時間、空間、周波数ドメインからの知識を、複数のビューからのデータ拡張を通じてトレーニングプロセスに統合する。
- 参考スコア(独自算出の注目度): 20.78236894605647
- License:
- Abstract: Objective: An electroencephalography (EEG)-based brain-computer interface (BCI) serves as a direct communication pathway between the human brain and an external device. While supervised learning has been extensively explored for motor imagery (MI) EEG classification, small data quantity has been a key factor limiting the performance of deep feature learning. Methods: This paper proposes a knowledge-driven time-space-frequency based multi-view contrastive network (MVCNet) for MI EEG decoding in BCIs. MVCNet integrates knowledge from the time, space, and frequency domains into the training process through data augmentations from multiple views, fostering more discriminative feature learning of the characteristics of EEG data. We introduce a cross-view contrasting module to learn from different augmented views and a cross-model contrasting module to enhance the consistency of features extracted between knowledge-guided and data-driven models. Results: The combination of EEG data augmentation strategies was systematically investigated for more informative supervised contrastive learning. Experiments on four public MI datasets and three different architectures demonstrated that MVCNet outperformed 10 existing approaches. Significance: Our approach can significantly boost EEG classification performance beyond designated networks, showcasing the potential to enhance the feature learning process for better EEG decoding.
- Abstract(参考訳): 目的:脳波(EEG)ベースの脳コンピュータインタフェース(BCI)は、ヒト脳と外部デバイスとの間の直接的な通信経路として機能する。
教師付き学習は運動画像(MI)脳波分類において広範囲に研究されてきたが、データ量が少ないことが特徴学習の性能を左右する重要な要因となっている。
方法:BCIにおけるMI EEGデコーディングのための知識駆動型時空間型マルチビューコントラストネットワーク(MVCNet)を提案する。
MVCNetは、複数のビューからのデータ拡張を通じて、時間、空間、周波数領域からの知識をトレーニングプロセスに統合し、EEGデータの特徴のより差別的な特徴学習を促進する。
我々は、異なる拡張ビューから学習するクロスビューコントラストモジュールと、知識誘導モデルとデータ駆動モデルの間で抽出された機能の一貫性を高めるクロスモデルコントラストモジュールを導入する。
結果: 教師付きコントラスト学習において, 脳波データ拡張戦略の組み合わせを体系的に検討した。
4つのパブリックMIデータセットと3つの異なるアーキテクチャの実験は、MVCNetが既存の10のアプローチより優れていることを示した。
意義:我々のアプローチは、指定されたネットワーク以上のEEG分類性能を大幅に向上させ、より優れたEEG復号化のために機能学習プロセスを強化する可能性を示す。
関連論文リスト
- CognitionCapturer: Decoding Visual Stimuli From Human EEG Signal With Multimodal Information [61.1904164368732]
脳波信号の表現にマルチモーダルデータを完全に活用する統合フレームワークであるCognitionCapturerを提案する。
具体的には、CognitionCapturerは、各モダリティに対してモダリティエキスパートを訓練し、EEGモダリティからモダリティ情報を抽出する。
このフレームワークは生成モデルの微調整を一切必要とせず、より多くのモダリティを組み込むように拡張することができる。
論文 参考訳(メタデータ) (2024-12-13T16:27:54Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Epistemic Graph: A Plug-And-Play Module For Hybrid Representation
Learning [46.48026220464475]
人間はハイブリッド学習を示し、クロスドメイン認識のための構造化された知識をシームレスに統合したり、少量の学習のために少量のデータサンプルに依存する。
本稿では, 深部特徴と構造化知識グラフ間の情報交換を促進し, ハイブリッド学習を実現するための新しいエピステミックグラフ層(EGLayer)を提案する。
論文 参考訳(メタデータ) (2023-05-30T04:10:15Z) - LMDA-Net:A lightweight multi-dimensional attention network for general
EEG-based brain-computer interface paradigms and interpretability [2.3945862743903916]
LMDA-Netと呼ばれる,軽量な多次元アテンションネットワークを提案する。
EEG信号用に設計された2つの新しいアテンションモジュールを組み込むことで、LMDA-Netは複数の次元の特徴を効果的に統合できる。
LMDA-Netは、分類精度とボラティリティの予測の観点から、他の代表的手法よりも優れている。
論文 参考訳(メタデータ) (2023-03-29T02:35:02Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - Attentive Cross-modal Connections for Deep Multimodal Wearable-based
Emotion Recognition [7.559720049837459]
本稿では、畳み込みニューラルネットワーク間で情報を共有するための、新しい注意深いクロスモーダル接続を提案する。
具体的には、EDAとECGの中間表現を共有することにより、感情分類を改善する。
実験の結果,提案手法は強いマルチモーダル表現を学習し,多くのベースライン法より優れていることがわかった。
論文 参考訳(メタデータ) (2021-08-04T18:40:32Z) - CNN-based Approaches For Cross-Subject Classification in Motor Imagery:
From The State-of-The-Art to DynamicNet [0.2936007114555107]
運動画像(MI)ベースの脳-コンピュータインタフェース(BCI)システムは、コミュニケーションと制御の代替手段を提供するためにますます採用されています。
信頼できるBCIシステムを得るには、脳信号からMIを正確に分類することが不可欠です。
ディープラーニングアプローチは、標準的な機械学習技術の有効な代替手段として現れ始めている。
論文 参考訳(メタデータ) (2021-05-17T14:57:13Z) - Multi-Perspective LSTM for Joint Visual Representation Learning [81.21490913108835]
複数の視点から捉えた視覚的シーケンスで利用可能な内的および対外的関係を学習できる新しいLSTM細胞アーキテクチャを提案する。
私たちのアーキテクチャは、細胞レベルで追加のゲートと記憶を使用する新しい繰り返し共同学習戦略を採用しています。
提案するセルを用いてネットワークを構築することにより、より効果的でリッチな視覚的表現が認識タスクで学習されることを示す。
論文 参考訳(メタデータ) (2021-05-06T16:44:40Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Few-Shot Relation Learning with Attention for EEG-based Motor Imagery
Classification [11.873435088539459]
脳波(EEG)信号に基づく脳-コンピュータインタフェース(BCI)が注目されている。
運動画像(MI)データは、リハビリテーションや自律運転のシナリオに使用することができる。
脳波に基づくBCIシステムにはMI信号の分類が不可欠である。
論文 参考訳(メタデータ) (2020-03-03T02:34:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。