論文の概要: EEG-EMG FAConformer: Frequency Aware Conv-Transformer for the fusion of EEG and EMG
- arxiv url: http://arxiv.org/abs/2409.18973v1
- Date: Thu, 12 Sep 2024 14:08:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 05:22:52.744388
- Title: EEG-EMG FAConformer: Frequency Aware Conv-Transformer for the fusion of EEG and EMG
- Title(参考訳): EEG-EMG FAコンバータ:脳波とEMGの融合のための周波数対応コンバータ
- Authors: ZhengXiao He, Minghong Cai, Letian Li, Siyuan Tian, Ren-Jie Dai,
- Abstract要約: 運動パターン認識パラダイムは、運動機能回復を目的としたBrain-Computer Interfaceの主要な形態である。
筋電図(EMG)信号は、運動の実行を評価する最も直接的な生理的信号である。
脳波とEMG信号に対するマルチモーダル動作パターン認識アルゴリズム:EEG-EMG FAConformerを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motor pattern recognition paradigms are the main forms of Brain-Computer Interfaces(BCI) aimed at motor function rehabilitation and are the most easily promoted applications. In recent years, many researchers have suggested encouraging patients to perform real motor control execution simultaneously in MI-based BCI rehabilitation training systems. Electromyography (EMG) signals are the most direct physiological signals that can assess the execution of movements. Multimodal signal fusion is practically significant for decoding motor patterns. Therefore, we introduce a multimodal motion pattern recognition algorithm for EEG and EMG signals: EEG-EMG FAConformer, a method with several attention modules correlated with temporal and frequency information for motor pattern recognition. We especially devise a frequency band attention module to encode EEG information accurately and efficiently. What's more, modules like Multi-Scale Fusion Module, Independent Channel-Specific Convolution Module(ICSCM), and Fuse Module which can effectively eliminate irrelevant information in EEG and EMG signals and fully exploit hidden dynamics are developed and show great effects. Extensive experiments show that EEG-EMG FAConformer surpasses existing methods on Jeong2020 dataset, showcasing outstanding performance, high robustness and impressive stability.
- Abstract(参考訳): 運動パターン認識パラダイムは、運動機能回復を目的とした脳-コンピュータインタフェース(BCI)の主要な形態であり、最も容易に促進できる応用である。
近年、多くの研究者がMIベースのBCIリハビリテーショントレーニングシステムにおいて、実際の運動制御の実行を同時に行うよう患者に勧めている。
筋電図(EMG)信号は、運動の実行を評価する最も直接的な生理的信号である。
マルチモーダル信号融合は、事実上モータパターンの復号化に重要である。
そこで我々は,脳波とEMG信号に対するマルチモーダル動作パターン認識アルゴリズム,EEG-EMG FAConformerを導入する。
特に脳波情報を正確かつ効率的に符号化するための周波数帯域アテンションモジュールを考案する。
さらに、マルチスケール核融合モジュール、独立チャネル特異的畳み込みモジュール(ICSCM)、そして、脳波やEMG信号の不適切な情報を効果的に排除し、隠れたダイナミクスを完全に活用できるフューズモジュールのようなモジュールが開発され、大きな効果を示します。
大規模な実験により、EEG-EMG FAConformerはJeong2020データセットの既存の手法を超え、優れたパフォーマンス、高い堅牢性、印象的な安定性を示している。
関連論文リスト
- EEGMamba: Bidirectional State Space Model with Mixture of Experts for EEG Multi-task Classification [1.4004287903552533]
脳波アプリケーションのためのマルチタスク学習を真に実装した最初のユニバーサル脳波分類ネットワークであるEEGMambaを紹介する。
EEGMambaは、Spatio-Temporal-Adaptive (ST-Adaptive)モジュール、双方向のMamba、Mixture of Experts (MoE)をシームレスに統合したフレームワークに統合する。
本研究では,8つの公用EEGデータセットを用いてモデルの評価を行い,その性能を4種類のタスクで実証した。
論文 参考訳(メタデータ) (2024-07-20T11:15:47Z) - SCDM: Unified Representation Learning for EEG-to-fNIRS Cross-Modal Generation in MI-BCIs [6.682531937245544]
ハイブリッドモーター脳-コンピュータインタフェース(MI-BCI)は、脳波(EEG)と機能近赤外分光(fNIRS)の両方を統合している。
脳波とfNIRS信号を同時に記録することは、両方のセンサーを同一の頭皮上に置くのが難しいため、非常に難しい。
本研究では,脳波からfNIRSへのクロスモーダル生成のためのフレームワークとして,空間時間制御拡散画像モデル(SCDM)を提案する。
論文 参考訳(メタデータ) (2024-07-01T13:37:23Z) - MMA-DFER: MultiModal Adaptation of unimodal models for Dynamic Facial Expression Recognition in-the-wild [81.32127423981426]
実世界のアプリケーションでは,音声およびビデオデータに基づくマルチモーダル感情認識が重要である。
近年の手法は、強力なマルチモーダルエンコーダの事前学習に自己教師付き学習(SSL)の進歩を活用することに重点を置いている。
SSL-pre-trained disimodal encoders を用いて,この問題に対する異なる視点とマルチモーダル DFER の性能向上について検討する。
論文 参考訳(メタデータ) (2024-04-13T13:39:26Z) - vEEGNet: learning latent representations to reconstruct EEG raw data via
variational autoencoders [3.031375888004876]
本稿では,2つのモジュールを持つDLアーキテクチャであるvEEGNetを提案する。つまり,データの潜在表現を抽出する変分オートエンコーダに基づく教師なしモジュールと,フィードフォワードニューラルネットワークに基づく教師付きモジュールにより異なる動作を分類する。
我々は最先端の分類性能を示し、生の脳波の低周波成分と中周波成分の両方を再構成する能力を示した。
論文 参考訳(メタデータ) (2023-11-16T19:24:40Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - From Unimodal to Multimodal: improving sEMG-Based Pattern Recognition
via deep generative models [1.1477981286485912]
マルチモーダルハンドジェスチャ認識(HGR)システムは,HGRシステムと比較して高い認識精度を実現することができる。
本稿では,仮想慣性計測ユニット(IMU)信号を用いた表面筋電図(sEMG)に基づくHGRの精度向上のための新しい生成手法を提案する。
論文 参考訳(メタデータ) (2023-08-08T07:15:23Z) - Convolutional Monge Mapping Normalization for learning on sleep data [63.22081662149488]
我々は、CMMN(Convolutional Monge Mapping Normalization)と呼ばれる新しい手法を提案する。
CMMNは、そのパワースペクトル密度(PSD)をトレーニングデータに基づいて推定されるワッサーシュタインバリセンタに適応させるために、信号をフィルタリングする。
睡眠脳波データに関する数値実験により、CMMNはニューラルネットワークアーキテクチャから独立して、顕著で一貫したパフォーマンス向上をもたらすことが示された。
論文 参考訳(メタデータ) (2023-05-30T08:24:01Z) - Multi-Scale Control Signal-Aware Transformer for Motion Synthesis
without Phase [72.01862340497314]
マルチスケール制御信号認識変換器(MCS-T)を提案する。
MCS-Tは補助情報を用いてメソッドが生成した動作に匹敵する動作をうまく生成できる。
論文 参考訳(メタデータ) (2023-03-03T02:56:44Z) - Conditional Generative Models for Simulation of EMG During Naturalistic
Movements [45.698312905115955]
本稿では、運動単位活性化電位波形を生成するために、逆向きに訓練された条件付き生成ニューラルネットワークを提案する。
本研究では,より少ない数の数値モデルの出力を高い精度で予測的に補間できることを実証する。
論文 参考訳(メタデータ) (2022-11-03T14:49:02Z) - Massive MIMO As an Extreme Learning Machine [83.12538841141892]
低分解能アナログ・デジタルコンバータ(ADC)を用いたMIMOシステムによる自然極端学習機械(ELM)の試作
受信した信号にランダムなバイアスを加え、ELM出力の重みを最適化することにより、システムはハードウェアの障害に効果的に取り組むことができる。
論文 参考訳(メタデータ) (2020-07-01T04:15:20Z) - Motor Imagery Classification of Single-Arm Tasks Using Convolutional
Neural Network based on Feature Refining [5.620334754517149]
運動画像(MI)は、信号の発端から運動機能の回復や回復に一般的に用いられる。
本研究では,BFR-CNN(Band-power Feature Refining Convolutional Neural Network)を提案する。
論文 参考訳(メタデータ) (2020-02-04T04:36:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。