論文の概要: Common Spatial Generative Adversarial Networks based EEG Data
Augmentation for Cross-Subject Brain-Computer Interface
- arxiv url: http://arxiv.org/abs/2102.04456v1
- Date: Mon, 8 Feb 2021 10:37:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 15:13:25.832176
- Title: Common Spatial Generative Adversarial Networks based EEG Data
Augmentation for Cross-Subject Brain-Computer Interface
- Title(参考訳): クロスオブジェクト脳-コンピュータインタフェースのための共通空間共振器ネットワークを用いた脳波データ拡張
- Authors: Yonghao Song, Lie Yang, Xueyu Jia and Longhan Xie
- Abstract要約: 脳波に基づく脳-コンピュータインタフェース(BCI)のクロスオブジェクト応用は、知覚が難しい大きな個人差と複雑な特徴によって常に制限されてきた。
CS-GAN(Common Space GAN)と呼ばれるGAN(Generative Adversarial Network)に基づくクロスオブジェクトEEG分類フレームワークを提案する。
我々のフレームワークは、オブジェクト間の問題に対処し、BCIの実践的応用を促進するための有望な方法を提供する。
- 参考スコア(独自算出の注目度): 4.8276709243429
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The cross-subject application of EEG-based brain-computer interface (BCI) has
always been limited by large individual difference and complex characteristics
that are difficult to perceive. Therefore, it takes a long time to collect the
training data of each user for calibration. Even transfer learning method
pre-training with amounts of subject-independent data cannot decode different
EEG signal categories without enough subject-specific data. Hence, we proposed
a cross-subject EEG classification framework with a generative adversarial
networks (GANs) based method named common spatial GAN (CS-GAN), which used
adversarial training between a generator and a discriminator to obtain
high-quality data for augmentation. A particular module in the discriminator
was employed to maintain the spatial features of the EEG signals and increase
the difference between different categories, with two losses for further
enhancement. Through adaptive training with sufficient augmentation data, our
cross-subject classification accuracy yielded a significant improvement of
15.85% than leave-one subject-out (LOO) test and 8.57% than just adapting 100
original samples on the dataset 2a of BCI competition IV. Moreover, We designed
a convolutional neural networks (CNNs) based classification method as a
benchmark with a similar spatial enhancement idea, which achieved remarkable
results to classify motor imagery EEG data. In summary, our framework provides
a promising way to deal with the cross-subject problem and promote the
practical application of BCI.
- Abstract(参考訳): EEGベースの脳コンピュータインタフェース(BCI)のクロスオブジェクトアプリケーションは常に大きな個人差と知覚困難な複雑な特性によって制限されています。
そのため、校正のために各ユーザのトレーニングデータを収集するには長い時間がかかる。
対象非依存データ量の事前学習においても、十分な対象特化データなしでは、異なる脳波信号カテゴリを復号することはできない。
そこで我々は,ジェネレイティブ・アドバーサリアン・ネットワーク (gans) に基づく手法であるcommon spatial gan (cs-gan) を用いて,ジェネレータと判別器間の逆訓練を行い,高品質な補足データを得るためのeeg分類フレームワークを提案する。
識別器の特定のモジュールは、EEG信号の空間的特徴を維持し、異なるカテゴリ間の差を増加させるために使用され、2つの損失によりさらに強化された。
十分な増強データを備えた適応トレーニングにより、当社のクロスサブジェクト分類精度は、BCIコンペティションIVのデータセット2aに100個のオリジナルサンプルを適応するよりも15.85%、および8.57%の大幅な改善を達成した。
さらに,畳み込みニューラルネットワーク (CNNs) に基づく分類手法を類似した空間拡張アイデアのベンチマークとして設計し,運動画像脳波データを分類する顕著な結果を得た。
要約すると、私たちのフレームワークは、クロスサブジェクト問題に対処し、BCIの実用化を促進する有望な方法を提供します。
関連論文リスト
- Physics-informed and Unsupervised Riemannian Domain Adaptation for Machine Learning on Heterogeneous EEG Datasets [53.367212596352324]
脳波信号物理を利用した教師なし手法を提案する。
脳波チャンネルをフィールド、ソースフリーなドメイン適応を用いて固定位置にマッピングする。
提案手法は脳-コンピュータインタフェース(BCI)タスクおよび潜在的なバイオマーカー応用におけるロバストな性能を示す。
論文 参考訳(メタデータ) (2024-03-07T16:17:33Z) - Towards physiology-informed data augmentation for EEG-based BCIs [24.15108821320151]
本稿では,手元に設定したデータから新たなデータを生成することにより,トレーニングデータを増強する新しい手法を提案する。
本書では,本手法を解説し,参加者非依存型運動画像分類のための第1次予備結果を示す。
論文 参考訳(メタデータ) (2022-03-27T20:59:40Z) - 2021 BEETL Competition: Advancing Transfer Learning for Subject
Independence & Heterogenous EEG Data Sets [89.84774119537087]
我々は、診断とBCI(Brain-Computer-Interface)に関する2つの伝達学習課題を設計する。
第1タスクは、患者全体にわたる自動睡眠ステージアノテーションに対処する医療診断に重点を置いている。
タスク2はBrain-Computer Interface (BCI)に集中しており、被験者とデータセットの両方にわたる運動画像のデコードに対処する。
論文 参考訳(メタデータ) (2022-02-14T12:12:20Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - A SPA-based Manifold Learning Framework for Motor Imagery EEG Data
Classification [2.4727719996518487]
本稿では,運動画像(MI)タスクから2種類の脳波データを分類するための多様体学習フレームワークを提案する。
特徴抽出のために、前処理された脳波信号から共通空間パターン(CSP)によって実装される。
分類のための特徴の近傍では、データの支持に対する局所近似が得られ、次に最も近い支持を持つクラスに特徴が割り当てられる。
論文 参考訳(メタデータ) (2021-07-30T06:18:05Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - EEG-Inception: An Accurate and Robust End-to-End Neural Network for
EEG-based Motor Imagery Classification [123.93460670568554]
本稿では,脳波に基づく運動画像(MI)分類のための新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
提案したCNNモデル、すなわちEEG-Inceptionは、Inception-Timeネットワークのバックボーン上に構築されている。
提案するネットワークは、生のEEG信号を入力とし、複雑なEEG信号前処理を必要としないため、エンドツーエンドの分類である。
論文 参考訳(メタデータ) (2021-01-24T19:03:10Z) - Federated Transfer Learning for EEG Signal Classification [14.892851587424936]
脳波分類のためのFTL(Federated Transfer Learning)というプライバシー保護型ディープラーニングアーキテクチャを提案する。
FTLアプローチは、対象適応分析において2%高い分類精度を達成する。
マルチオブジェクトデータがない場合、我々のアーキテクチャは他の最先端のDLアーキテクチャと比較して6%精度が向上する。
論文 参考訳(メタデータ) (2020-04-26T09:03:19Z) - Few-Shot Relation Learning with Attention for EEG-based Motor Imagery
Classification [11.873435088539459]
脳波(EEG)信号に基づく脳-コンピュータインタフェース(BCI)が注目されている。
運動画像(MI)データは、リハビリテーションや自律運転のシナリオに使用することができる。
脳波に基づくBCIシステムにはMI信号の分類が不可欠である。
論文 参考訳(メタデータ) (2020-03-03T02:34:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。