論文の概要: End-to-End Deep Transfer Learning for Calibration-free Motor Imagery
Brain Computer Interfaces
- arxiv url: http://arxiv.org/abs/2307.12827v1
- Date: Mon, 24 Jul 2023 14:24:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 14:03:05.841228
- Title: End-to-End Deep Transfer Learning for Calibration-free Motor Imagery
Brain Computer Interfaces
- Title(参考訳): Calibration-free Motor Imagery Brain Computer Interface のためのエンドツーエンドディープラーニング学習
- Authors: Maryam Alimardani and Steven Kocken and Nikki Leeuwis
- Abstract要約: Motor Imagery Brain-Computer Interfaces (MI-BCIs) の主な課題は、その分類精度の低さと、被検体固有の校正に必要な大量のデータである。
本研究は, キャリブレーション非依存型BCIの開発にディープトランスファー学習を用いた。
3つのディープラーニングモデル(MIN2Net、EEGNet、DeepConvNet)をトレーニングし、公開データセットを使用して比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A major issue in Motor Imagery Brain-Computer Interfaces (MI-BCIs) is their
poor classification accuracy and the large amount of data that is required for
subject-specific calibration. This makes BCIs less accessible to general users
in out-of-the-lab applications. This study employed deep transfer learning for
development of calibration-free subject-independent MI-BCI classifiers. Unlike
earlier works that applied signal preprocessing and feature engineering steps
in transfer learning, this study adopted an end-to-end deep learning approach
on raw EEG signals. Three deep learning models (MIN2Net, EEGNet and
DeepConvNet) were trained and compared using an openly available dataset. The
dataset contained EEG signals from 55 subjects who conducted a left- vs.
right-hand motor imagery task. To evaluate the performance of each model, a
leave-one-subject-out cross validation was used. The results of the models
differed significantly. MIN2Net was not able to differentiate right- vs.
left-hand motor imagery of new users, with a median accuracy of 51.7%. The
other two models performed better, with median accuracies of 62.5% for EEGNet
and 59.2% for DeepConvNet. These accuracies do not reach the required threshold
of 70% needed for significant control, however, they are similar to the
accuracies of these models when tested on other datasets without transfer
learning.
- Abstract(参考訳): Motor Imagery Brain-Computer Interfaces (MI-BCI) の大きな問題は、その分類精度の低下と、被検体固有の校正に必要な大量のデータである。
これにより、bcisは、現場外のアプリケーションの一般ユーザーにはアクセスできない。
本研究は, 被検体非依存MI-BCI分類器の開発にDeep Transfer Learningを用いた。
トランスファー学習における信号前処理や特徴工学的ステップを適用した先行研究とは異なり、本研究は脳波信号に対するエンドツーエンドのディープラーニングアプローチを採用した。
3つのディープラーニングモデル(MIN2Net、EEGNet、DeepConvNet)をトレーニングし、公開データセットを使用して比較した。
データセットには、左右のモーターイメージタスクを行った55名の被験者の脳波信号が含まれていた。
各モデルの性能を評価するために,残余1オブジェクトのクロスバリデーションを用いた。
モデルの結果は大きく異なっていた。
min2netは、新しいユーザーの右と左のモーターイメージを区別できず、中央値は51.7%であった。
他の2つのモデルでは、EEGNetでは62.5%、DeepConvNetでは59.2%の平均的な精度が向上した。
これらの精度は、重要な制御に必要な70%の閾値に達しないが、転送学習なしで他のデータセットでテストされた場合、これらのモデルの精度に類似している。
関連論文リスト
- Building Math Agents with Multi-Turn Iterative Preference Learning [56.71330214021884]
本稿では,モデル性能をさらに向上させるために,補完的な直接選好学習手法について検討する。
既存の直接選好学習アルゴリズムは、もともとシングルターンチャットタスク用に設計されている。
この文脈に合わせたマルチターン直接選好学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-04T02:41:04Z) - DataComp-LM: In search of the next generation of training sets for language models [200.5293181577585]
DataComp for Language Models (DCLM)は、制御されたデータセット実験のためのテストベッドであり、言語モデルを改善することを目的としている。
我々は、Common Crawlから抽出された240Tトークンの標準化コーパス、OpenLMフレームワークに基づく効果的な事前学習レシピ、53の下流評価スイートを提供する。
DCLMベンチマークの参加者は、412Mから7Bパラメータのモデルスケールでの重複、フィルタリング、データ混合などのデータキュレーション戦略を実験することができる。
論文 参考訳(メタデータ) (2024-06-17T17:42:57Z) - Transfer Learning between Motor Imagery Datasets using Deep Learning --
Validation of Framework and Comparison of Datasets [0.0]
本稿では,コンピュータビジョンによく用いられる,シンプルなディープラーニングベースのフレームワークを提案する。
精神画像復号処理におけるデータセット間変換学習の有効性を実証する。
論文 参考訳(メタデータ) (2023-09-04T20:58:57Z) - Deep comparisons of Neural Networks from the EEGNet family [0.0]
我々は、BCIコンペティション42aデータセットの隣の多くの主題を持つオープンアクセスデータベースを用いて、よく知られた5つのニューラルネットワーク(Shallow ConvNet、Deep ConvNet、EEGNet、EEGNet、EEGNet Fusion、MI-EEGNet)を比較した。
当社のメトリクスによると、研究者はShallow ConvNetやDeep ConvNetを避けてはならない。
論文 参考訳(メタデータ) (2023-02-17T10:39:09Z) - A Hybrid Brain-Computer Interface Using Motor Imagery and SSVEP Based on
Convolutional Neural Network [0.9176056742068814]
本稿では,2ストリーム畳み込みニューラルネットワーク(TSCNN)を用いたハイブリッド脳-コンピュータインタフェースを提案する。
定常視覚誘発電位(SSVEP)と運動画像(MI)のパラダイムを組み合わせる。
TSCNNはトレーニングプロセスの2つのパラダイムにおいて、自動的に脳波の特徴を抽出する。
論文 参考訳(メタデータ) (2022-12-10T12:34:36Z) - Adapting the Mean Teacher for keypoint-based lung registration under
geometric domain shifts [75.51482952586773]
ディープニューラルネットワークは一般的に、ラベル付きトレーニングデータが多く必要であり、トレーニングデータとテストデータの間のドメインシフトに弱い。
本稿では,ラベル付きソースからラベル付きターゲットドメインへのモデルの適用により,画像登録のための幾何学的領域適応手法を提案する。
本手法は,ベースラインモデルの精度を目標データに適合させながら,ベースラインモデルの50%/47%を継続的に改善する。
論文 参考訳(メタデータ) (2022-07-01T12:16:42Z) - LGD: Label-guided Self-distillation for Object Detection [59.9972914042281]
我々はLGD(Label-Guided Self-Distillation)と呼ばれる汎用物体検出のための最初の自己蒸留フレームワークを提案する。
本フレームワークは, 学習知識を得るために, スパースラベル-外観符号化, オブジェクト間関係適応, オブジェクト内知識マッピングを含む。
従来の教師ベースのFGFIと比較すると、LGDは予習された教師を必要とせず、本質的な学生学習よりも51%低い訓練コストで性能が向上する。
論文 参考訳(メタデータ) (2021-09-23T16:55:01Z) - EEG-Inception: An Accurate and Robust End-to-End Neural Network for
EEG-based Motor Imagery Classification [123.93460670568554]
本稿では,脳波に基づく運動画像(MI)分類のための新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
提案したCNNモデル、すなわちEEG-Inceptionは、Inception-Timeネットワークのバックボーン上に構築されている。
提案するネットワークは、生のEEG信号を入力とし、複雑なEEG信号前処理を必要としないため、エンドツーエンドの分類である。
論文 参考訳(メタデータ) (2021-01-24T19:03:10Z) - EqCo: Equivalent Rules for Self-supervised Contrastive Learning [81.45848885547754]
本稿では,InfoNCEをベースとしたコントラスト学習フレームワークにおいて,負のサンプル数と無関係に自己教師型学習を実現する手法を提案する。
InfoMaxの原理に着想を得て、負のペアの数に応じて、対照的な損失のマージン項を適応的にスケールする必要があることを指摘する。
論文 参考訳(メタデータ) (2020-10-05T11:39:04Z) - EEG-TCNet: An Accurate Temporal Convolutional Network for Embedded
Motor-Imagery Brain-Machine Interfaces [15.07343602952606]
本稿では、トレーニング可能なパラメータをほとんど必要とせず、優れた精度を実現する新しい時間畳み込みネットワーク(TCN)であるEEG-TCNetを提案する。
メモリフットプリントが低く、推論の計算量も少ないため、エッジのリソース制限されたデバイスの組み込み分類に適している。
論文 参考訳(メタデータ) (2020-05-31T21:45:45Z) - An Accurate EEGNet-based Motor-Imagery Brain-Computer Interface for
Low-Power Edge Computing [13.266626571886354]
本稿では,MI-BCI(MI-BCI)の精度と堅牢性を示す。
EEGNetに基づく新しいモデルでは、低消費電力マイクロコントローラユニット(MCU)のメモリフットプリントと計算資源の要件が一致している。
スケールされたモデルは、最小モデルを操作するために101msと4.28mJを消費する商用のCortex-M4F MCUにデプロイされ、中型モデルでは44msと18.1mJのCortex-M7にデプロイされる。
論文 参考訳(メタデータ) (2020-03-31T19:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。