論文の概要: CSP-Net: Common Spatial Pattern Empowered Neural Networks for EEG-Based Motor Imagery Classification
- arxiv url: http://arxiv.org/abs/2411.11879v1
- Date: Mon, 04 Nov 2024 13:48:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-24 05:33:16.087286
- Title: CSP-Net: Common Spatial Pattern Empowered Neural Networks for EEG-Based Motor Imagery Classification
- Title(参考訳): CSP-Net:脳波に基づく運動画像分類のための共通空間パターン型ニューラルネットワーク
- Authors: Xue Jiang, Lubin Meng, Xinru Chen, Yifan Xu, Dongrui Wu,
- Abstract要約: 本稿では,CSPを用いた2つのニューラルネットワーク(CSP-Nets)を提案する。
CSP-Netsは知識駆動型CSPフィルタとデータ駆動型CNNを統合し、MI分類の性能を向上させる。
4つのパブリックMIデータセットの実験は、2つのCSP-NetがCNNのバックボーンよりも一貫して改善されていることを示した。
- 参考スコア(独自算出の注目度): 23.289676815663523
- License:
- Abstract: Electroencephalogram-based motor imagery (MI) classification is an important paradigm of non-invasive brain-computer interfaces. Common spatial pattern (CSP), which exploits different energy distributions on the scalp while performing different MI tasks, is very popular in MI classification. Convolutional neural networks (CNNs) have also achieved great success, due to their powerful learning capabilities. This paper proposes two CSP-empowered neural networks (CSP-Nets), which integrate knowledge-driven CSP filters with data-driven CNNs to enhance the performance in MI classification. CSP-Net-1 directly adds a CSP layer before a CNN to improve the input discriminability. CSP-Net-2 replaces a convolutional layer in CNN with a CSP layer. The CSP layer parameters in both CSP-Nets are initialized with CSP filters designed from the training data. During training, they can either be kept fixed or optimized using gradient descent. Experiments on four public MI datasets demonstrated that the two CSP-Nets consistently improved over their CNN backbones, in both within-subject and cross-subject classifications. They are particularly useful when the number of training samples is very small. Our work demonstrates the advantage of integrating knowledge-driven traditional machine learning with data-driven deep learning in EEG-based brain-computer interfaces.
- Abstract(参考訳): 脳波に基づく運動画像(MI)分類は非侵襲的脳-コンピュータインタフェースの重要なパラダイムである。
コモンスペースパターン(CSP)は、頭皮上の異なるエネルギー分布を利用して、異なるMIタスクを実行することで、MI分類において非常に人気がある。
畳み込みニューラルネットワーク(CNN)も、強力な学習能力によって大きな成功を収めている。
本稿では、知識駆動型CSPフィルタとデータ駆動型CNNを統合し、MI分類の性能を向上させる2つのCSP内蔵ニューラルネットワーク(CSP-Nets)を提案する。
CSP-Net-1は入力識別性を改善するためにCNNの前にCSP層を直接追加する。
CSP-Net-2はCNNの畳み込み層をCSP層に置き換える。
CSP-NetのCSP層パラメータはトレーニングデータから設計したCSPフィルタで初期化される。
トレーニング中は、勾配降下を利用して修正または最適化することができる。
4つのパブリックMIデータセットの実験では、2つのCSP-NetがCNNのバックボーンよりも一貫して改善され、インテリアオブジェクトとクロスオブジェクトの分類が実施された。
トレーニングサンプルの数が極めて少ない場合には特に有用である。
我々の研究は、知識駆動型従来の機械学習とデータ駆動型ディープラーニングをEEGベースの脳-コンピュータインタフェースに統合する利点を実証している。
関連論文リスト
- CNN-Transformer Rectified Collaborative Learning for Medical Image Segmentation [60.08541107831459]
本稿では,医用画像セグメンテーションのための強力なCNNベースモデルとトランスフォーマーベースモデルを学習するための,CNN-Transformer修正協調学習フレームワークを提案する。
具体的には,学生ソフトラベルの誤り領域を適応的に選択・修正する基礎的真理を取り入れた修正ロジット・ワイド・コラボレーティブ・ラーニング(RLCL)戦略を提案する。
また,機能空間におけるCNNベースモデルとTransformerベースモデル間の効果的な知識伝達を実現するために,クラス認識型特徴量協調学習(CFCL)戦略を提案する。
論文 参考訳(メタデータ) (2024-08-25T01:27:35Z) - Sharpend Cosine Similarity based Neural Network for Hyperspectral Image
Classification [0.456877715768796]
ハイパースペクトル画像分類(HSIC)は、高いクラス間類似度と変動性、ネスト領域、重なり合いのため難しい課題である。
2D畳み込みニューラルネットワーク(CNN)は有効なネットワークとして登場したが、3D CNNは正確な分類のため、より良い代替手段である。
本稿では,HSICのためのニューラルネットワークにおける畳み込みの代替として,SCS(Sharpened Cosine similarity)の概念を紹介する。
論文 参考訳(メタデータ) (2023-05-26T07:04:00Z) - Visual Recognition with Deep Nearest Centroids [57.35144702563746]
我々は、概念的にエレガントで驚くほど効果的な大規模視覚認識ネットワークである深部セントロイド(DNC)を考案した。
パラメトリックと比較すると、DNCは画像分類(CIFAR-10, ImageNet)に優れ、画像認識(ADE20K, Cityscapes)を大いに起動する。
論文 参考訳(メタデータ) (2022-09-15T15:47:31Z) - Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks [58.868899595936476]
コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2022-07-14T19:16:56Z) - Learning Enhancement of CNNs via Separation Index Maximizing at the
First Convolutional Layer [1.6244541005112747]
教師付き複雑性尺度としての分離指数(SI)は、分類問題に対するCNNのより良い学習における使用法を説明する。
学習戦略では、SIを最大化することでCNNの第1層を最適化し、さらに第2層をバックプロパゲーションアルゴリズムでトレーニングし、さらなるレイヤを学習する。
論文 参考訳(メタデータ) (2022-01-13T21:32:14Z) - Classification of Motor Imagery EEG Signals by Using a Divergence Based
Convolutional Neural Network [0.0]
増強過程はEEG信号の分類性能を高めるために適用されないことが観察される。
本研究では、MI EEG信号の分類性能に及ぼす増強過程の影響について検討した。
論文 参考訳(メタデータ) (2021-03-19T18:27:28Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - Collaborative Method for Incremental Learning on Classification and
Generation [32.07222897378187]
本稿では,ニューラルネットワークを用いたインクリメンタルなクラス学習のための新しいアルゴリズム,Incrmental Class Learning with Attribute Sharing (ICLAS)を導入する。
そのコンポーネントの1つであるincGANは、トレーニングデータよりも多彩な画像を生成することができる。
データ不足の困難な環境下で、ICLASは段階的に分類と生成ネットワークを訓練する。
論文 参考訳(メタデータ) (2020-10-29T06:34:53Z) - A Dual-Dimer Method for Training Physics-Constrained Neural Networks
with Minimax Architecture [6.245537312562826]
ミニマックス探索アルゴリズム(PCNN-MM)による物理制約ニューラルネットワーク(PCNN)の訓練
DualDimerと呼ばれる新しいサドルポイントアルゴリズムは、ニューラルネットワークデータの高次サドルポイントを探索するために使用される。
PCNN-MMの収束重みは従来のPCNNよりも高速である。
論文 参考訳(メタデータ) (2020-05-01T21:26:04Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。