論文の概要: Deep comparisons of Neural Networks from the EEGNet family
- arxiv url: http://arxiv.org/abs/2302.08797v1
- Date: Fri, 17 Feb 2023 10:39:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 15:12:05.601288
- Title: Deep comparisons of Neural Networks from the EEGNet family
- Title(参考訳): EEGNetファミリーからのニューラルネットワークの深部比較
- Authors: Csaba M\'arton K\"oll\H{o}d, Andr\'as Adolf, Gergely M\'arton,
Istv\'an Ulbert
- Abstract要約: 我々は、BCIコンペティション42aデータセットの隣の多くの主題を持つオープンアクセスデータベースを用いて、よく知られた5つのニューラルネットワーク(Shallow ConvNet、Deep ConvNet、EEGNet、EEGNet、EEGNet Fusion、MI-EEGNet)を比較した。
当社のメトリクスによると、研究者はShallow ConvNetやDeep ConvNetを避けてはならない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most of the Brain-Computer Interface (BCI) publications, which propose
artificial neural networks for Motor Imagery (MI) Electroencephalography (EEG)
signal classification, are presented using one of the BCI Competition datasets.
However, these databases contain MI EEG data from less than or equal to 10
subjects . In addition, these algorithms usually include only bandpass
filtering to reduce noise and increase signal quality. In this article, we
compared 5 well-known neural networks (Shallow ConvNet, Deep ConvNet, EEGNet,
EEGNet Fusion, MI-EEGNet) using open-access databases with many subjects next
to the BCI Competition 4 2a dataset to acquire statistically significant
results. We removed artifacts from the EEG using the FASTER algorithm as a
signal processing step. Moreover, we investigated whether transfer learning can
further improve the classification results on artifact filtered data. We aimed
to rank the neural networks; therefore, next to the classification accuracy, we
introduced two additional metrics: the accuracy improvement from chance level
and the effect of transfer learning. The former can be used with different
class-numbered databases, while the latter can highlight neural networks with
sufficient generalization abilities. Our metrics showed that the researchers
should not avoid Shallow ConvNet and Deep ConvNet because they can perform
better than the later published ones from the EEGNet family.
- Abstract(参考訳): 運動画像(MI)脳波(EEG)信号分類のための人工ニューラルネットワークを提案するBCI(Brain-Computer Interface)の出版物の多くは、BCIコンペティションデータセットの1つを用いて紹介されている。
しかし、これらのデータベースには、10人以下のMI EEGデータが含まれている。
加えて、これらのアルゴリズムは通常、雑音の低減と信号品質の向上のために帯域通過フィルタのみを含む。
本稿では,bci コンペティション4 2a データセットに隣接したオープンアクセスデータベースを用いて,5つのよく知られたニューラルネットワーク(shallow convnet,deep convnet,eegnet,eegnet fusion,mi-eegnet)を比較し,統計的に有意な結果を得た。
信号処理ステップとしてFASTERアルゴリズムを用いて脳波からアーティファクトを除去した。
さらに,アーティファクトフィルタリングデータの分類結果をさらに改善できるかどうかを検討した。
ニューラルネットワークのランク付けを目的としたので,分類精度の他に,確率レベルからの精度向上と伝達学習の効果の2つの指標を導入した。
前者は異なるクラス番号データベースで使用することができ、後者は十分な一般化能力を持つニューラルネットワークをハイライトすることができる。
私たちの測定によると、研究者たちはeegnetファミリーで公開されたものよりもパフォーマンスが良いので、浅いconvnetや深いconvnetを避けるべきではないことがわかった。
関連論文リスト
- EEG-BBNet: a Hybrid Framework for Brain Biometric using Graph
Connectivity [1.1498015270151059]
我々は、畳み込みニューラルネットワーク(CNN)とグラフ畳み込みニューラルネットワーク(GCNN)を統合するハイブリッドネットワークであるEEG-BBNetを提案する。
我々のモデルは、イベント関連電位(ERP)タスクにおけるすべてのベースラインを、セッション内データを用いて平均99.26%の正確な認識率で上回ります。
論文 参考訳(メタデータ) (2022-08-17T10:18:22Z) - EEG-ITNet: An Explainable Inception Temporal Convolutional Network for
Motor Imagery Classification [0.5616884466478884]
我々はEEG-ITNetと呼ばれるエンドツーエンドのディープラーニングアーキテクチャを提案する。
本モデルでは,多チャンネル脳波信号からスペクトル,空間,時間情報を抽出することができる。
EEG-ITNetは、異なるシナリオにおける分類精度を最大5.9%改善する。
論文 参考訳(メタデータ) (2022-04-14T13:18:43Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Classification of Motor Imagery EEG Signals by Using a Divergence Based
Convolutional Neural Network [0.0]
増強過程はEEG信号の分類性能を高めるために適用されないことが観察される。
本研究では、MI EEG信号の分類性能に及ぼす増強過程の影響について検討した。
論文 参考訳(メタデータ) (2021-03-19T18:27:28Z) - Inter-subject Deep Transfer Learning for Motor Imagery EEG Decoding [1.933681537640272]
畳み込みニューラルネットワーク(CNN)は脳波を復号する強力な技術となっている。
個々のパフォーマンスを低下させることなく、複数の被験者の脳波でCNNを訓練することは依然として困難です。
本稿では,ネットワークの特徴抽出器を分割したマルチブランチディープ転送ネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-09T11:01:02Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - EEG-Inception: An Accurate and Robust End-to-End Neural Network for
EEG-based Motor Imagery Classification [123.93460670568554]
本稿では,脳波に基づく運動画像(MI)分類のための新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
提案したCNNモデル、すなわちEEG-Inceptionは、Inception-Timeネットワークのバックボーン上に構築されている。
提案するネットワークは、生のEEG信号を入力とし、複雑なEEG信号前処理を必要としないため、エンドツーエンドの分類である。
論文 参考訳(メタデータ) (2021-01-24T19:03:10Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - Transfer Learning and SpecAugment applied to SSVEP Based BCI
Classification [1.9336815376402716]
我々は、ディープ畳み込みニューラルネットワーク(DCNN)を使用して、単一チャネル脳-コンピュータインタフェース(BCI)で脳波信号を分類する。
脳波信号はスペクトログラムに変換され、転送学習技術を用いてDCNNを訓練するための入力として機能した。
論文 参考訳(メタデータ) (2020-10-08T00:30:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。