論文の概要: Inter-subject Deep Transfer Learning for Motor Imagery EEG Decoding
- arxiv url: http://arxiv.org/abs/2103.05351v1
- Date: Tue, 9 Mar 2021 11:01:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 13:10:45.672867
- Title: Inter-subject Deep Transfer Learning for Motor Imagery EEG Decoding
- Title(参考訳): 運動画像脳波復号のための物体間深度変換学習
- Authors: Xiaoxi Wei, Pablo Ortega and A. Aldo Faisal
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は脳波を復号する強力な技術となっている。
個々のパフォーマンスを低下させることなく、複数の被験者の脳波でCNNを訓練することは依然として困難です。
本稿では,ネットワークの特徴抽出器を分割したマルチブランチディープ転送ネットワークを提案する。
- 参考スコア(独自算出の注目度): 1.933681537640272
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs) have become a powerful technique to
decode EEG and have become the benchmark for motor imagery EEG
Brain-Computer-Interface (BCI) decoding. However, it is still challenging to
train CNNs on multiple subjects' EEG without decreasing individual performance.
This is known as the negative transfer problem, i.e. learning from dissimilar
distributions causes CNNs to misrepresent each of them instead of learning a
richer representation. As a result, CNNs cannot directly use multiple subjects'
EEG to enhance model performance directly. To address this problem, we extend
deep transfer learning techniques to the EEG multi-subject training case. We
propose a multi-branch deep transfer network, the Separate-Common-Separate
Network (SCSN) based on splitting the network's feature extractors for
individual subjects. We also explore the possibility of applying Maximum-mean
discrepancy (MMD) to the SCSN (SCSN-MMD) to better align distributions of
features from individual feature extractors. The proposed network is evaluated
on the BCI Competition IV 2a dataset (BCICIV2a dataset) and our online recorded
dataset. Results show that the proposed SCSN (81.8%, 53.2%) and SCSN-MMD
(81.8%, 54.8%) outperformed the benchmark CNN (73.4%, 48.8%) on both datasets
using multiple subjects. Our proposed networks show the potential to utilise
larger multi-subject datasets to train an EEG decoder without being influenced
by negative transfer.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)は脳波をデコードする強力な技術となり、運動画像eegbrain-computer-interface(bci)デコードのためのベンチマークとなった。
しかし、個々のパフォーマンスを低下させることなく、複数の被験者の脳波でCNNを訓練することは依然として困難です。
これは負の転送問題、すなわちとして知られている。
異なる分布から学習すると、CNNはより豊かな表現を学ぶのではなく、それぞれを誤表現する。
その結果、cnnは複数の被験者の脳波を直接使用できないため、モデルの性能が向上する。
この問題を解決するため、深層移動学習技術をEEGマルチサブジェクトトレーニングケースに拡張します。
本稿では,ネットワークの特徴抽出器を個別に分割して分割した,分別共通分離ネットワーク(scsn)を提案する。
また,SCSN(SCSN-MMD)にMMD(Maximum-mean discrepancy)を適用し,各特徴抽出器の特徴分布の整合性を高める可能性についても検討した。
提案ネットワークは,bci competition iv 2a dataset (bciciv2a dataset) とオンライン記録データセットを用いて評価した。
その結果、提案されたSCSN (81.8%, 53.2%) とSCSN-MMD (81.8%, 54.8%) は、CNN (73.4%, 48.8%) を複数の被験者で比較した。
私たちの提案ネットワークは、より大きなマルチサブジェクトデータセットを利用して、負の転送に影響されずにEEGデコーダを訓練する可能性を示しています。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングでは、スパイクニューラルネットワーク(SNN)が推論タスクを実行し、シーケンシャルデータを含むワークロードの大幅な効率向上を提供する。
ハードウェアとソフトウェアの最近の進歩は、スパイクニューロン間で交換された各スパイクに数ビットのペイロードを埋め込むことにより、推論精度をさらに高めることを示した。
本稿では,マルチレベルSNNを用いた無線ニューロモルフィック分割計算アーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Semantics Alignment via Split Learning for Resilient Multi-User Semantic
Communication [56.54422521327698]
最近の意味コミュニケーションの研究は、ディープジョイントソースやチャネルコーディング(DeepJSCC)のようなニューラルネットワーク(NN)ベースのトランシーバに依存している。
従来のトランシーバとは異なり、これらのニューラルトランシーバは実際のソースデータとチャネルを使用してトレーニング可能であり、セマンティクスを抽出し通信することができる。
本稿では,分割学習(SL)と部分的NN微調整技術を活用する分散学習ベースソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-13T20:29:55Z) - Deep comparisons of Neural Networks from the EEGNet family [0.0]
我々は、BCIコンペティション42aデータセットの隣の多くの主題を持つオープンアクセスデータベースを用いて、よく知られた5つのニューラルネットワーク(Shallow ConvNet、Deep ConvNet、EEGNet、EEGNet、EEGNet Fusion、MI-EEGNet)を比較した。
当社のメトリクスによると、研究者はShallow ConvNetやDeep ConvNetを避けてはならない。
論文 参考訳(メタデータ) (2023-02-17T10:39:09Z) - MP-SeizNet: A Multi-Path CNN Bi-LSTM Network for Seizure-Type
Classification Using EEG [2.1915057426589746]
てんかん患者の治療と管理には, 精垂型鑑別が不可欠である。
本稿では,MP-SeizNetを用いた新しいマルチパス・アセプション型ディープラーニング・ネットワークを提案する。
MP-SeizNetは、畳み込みニューラルネットワーク(CNN)と、注意機構を備えた双方向長短期記憶ニューラルネットワーク(Bi-LSTM)で構成されている。
論文 参考訳(メタデータ) (2022-11-09T01:07:20Z) - Basic Binary Convolution Unit for Binarized Image Restoration Network [146.0988597062618]
本研究では,画像復元作業における残差接続,BatchNorm,アクティベーション機能,構造などのバイナリ畳み込みのコンポーネントを再検討する。
本研究の成果と分析に基づいて, 単純で効率的な基本二元畳み込みユニット (BBCU) を設計した。
我々のBBCUは、他のBNNや軽量モデルよりも大幅に優れており、BBCUがバイナライズされたIRネットワークの基本ユニットとして機能することを示しています。
論文 参考訳(メタデータ) (2022-10-02T01:54:40Z) - EEG-ITNet: An Explainable Inception Temporal Convolutional Network for
Motor Imagery Classification [0.5616884466478884]
我々はEEG-ITNetと呼ばれるエンドツーエンドのディープラーニングアーキテクチャを提案する。
本モデルでは,多チャンネル脳波信号からスペクトル,空間,時間情報を抽出することができる。
EEG-ITNetは、異なるシナリオにおける分類精度を最大5.9%改善する。
論文 参考訳(メタデータ) (2022-04-14T13:18:43Z) - Knowledge Distillation By Sparse Representation Matching [107.87219371697063]
本稿では,一方の畳み込みネットワーク(cnn)から他方へ,スパース表現を用いて中間知識を伝達するスパース表現マッチング(srm)を提案する。
勾配降下を利用して効率的に最適化し、任意のCNNにプラグアンドプレイで統合できるニューラルプロセッシングブロックとして定式化します。
実験の結果,教師と生徒のネットワーク間のアーキテクチャの違いに頑健であり,複数のデータセットにまたがる他のkd技術よりも優れていた。
論文 参考訳(メタデータ) (2021-03-31T11:47:47Z) - EEG-Inception: An Accurate and Robust End-to-End Neural Network for
EEG-based Motor Imagery Classification [123.93460670568554]
本稿では,脳波に基づく運動画像(MI)分類のための新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
提案したCNNモデル、すなわちEEG-Inceptionは、Inception-Timeネットワークのバックボーン上に構築されている。
提案するネットワークは、生のEEG信号を入力とし、複雑なEEG信号前処理を必要としないため、エンドツーエンドの分類である。
論文 参考訳(メタデータ) (2021-01-24T19:03:10Z) - Transfer Learning and SpecAugment applied to SSVEP Based BCI
Classification [1.9336815376402716]
我々は、ディープ畳み込みニューラルネットワーク(DCNN)を使用して、単一チャネル脳-コンピュータインタフェース(BCI)で脳波信号を分類する。
脳波信号はスペクトログラムに変換され、転送学習技術を用いてDCNNを訓練するための入力として機能した。
論文 参考訳(メタデータ) (2020-10-08T00:30:12Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。