論文の概要: IncepFormerNet: A multi-scale multi-head attention network for SSVEP classification
- arxiv url: http://arxiv.org/abs/2502.13972v1
- Date: Tue, 04 Feb 2025 13:04:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-02 03:56:13.834058
- Title: IncepFormerNet: A multi-scale multi-head attention network for SSVEP classification
- Title(参考訳): IncepFormerNet:SSVEP分類のためのマルチスケールマルチヘッドアテンションネットワーク
- Authors: Yan Huang, Yongru Chen, Lei Cao, Yongnian Cao, Xuechun Yang, Yilin Dong, Tianyu Liu,
- Abstract要約: 本研究では,Inception と Transformer アーキテクチャのハイブリッドモデルである IncepFormerNet を提案する。
IncepFormerNetは、異なる大きさの並列畳み込みカーネルを用いて、時系列データから、マルチスケールの時間情報を積極的に抽出する。
SSVEPデータのスペクトル特性に基づいて特徴を抽出するために,フィルタバンク手法を利用する。
- 参考スコア(独自算出の注目度): 12.935583315234553
- License:
- Abstract: In recent years, deep learning (DL) models have shown outstanding performance in EEG classification tasks, particularly in Steady-State Visually Evoked Potential(SSVEP)-based Brain-Computer-Interfaces(BCI)systems. DL methods have been successfully applied to SSVEP-BCI. This study proposes a new model called IncepFormerNet, which is a hybrid of the Inception and Transformer architectures. IncepFormerNet adeptly extracts multi-scale temporal information from time series data using parallel convolution kernels of varying sizes, accurately capturing the subtle variations and critical features within SSVEP signals.Furthermore, the model integrates the multi-head attention mechanism from the Transformer architecture, which not only provides insights into global dependencies but also significantly enhances the understanding and representation of complex patterns.Additionally, it takes advantage of filter bank techniques to extract features based on the spectral characteristics of SSVEP data. To validate the effectiveness of the proposed model, we conducted experiments on two public datasets, . The experimental results show that IncepFormerNet achieves an accuracy of 87.41 on Dataset 1 and 71.97 on Dataset 2 using a 1.0-second time window. To further verify the superiority of the proposed model, we compared it with other deep learning models, and the results indicate that our method achieves significantly higher accuracy than the others.The source codes in this work are available at: https://github.com/CECNL/SSVEP-DAN.
- Abstract(参考訳): 近年、ディープラーニング(DL)モデルは脳波の分類タスク、特に定常視覚誘発電位(SSVEP)ベースの脳コンピュータインタフェース(BCI)システムにおいて顕著な性能を示している。
DL法はSSVEP-BCIにうまく適用されている。
本研究では,Inception と Transformer アーキテクチャのハイブリッドモデルである IncepFormerNet を提案する。
IncepFormerNetは、異なる大きさの並列畳み込みカーネルを用いて時系列データからマルチスケールの時間情報を抽出し、SSVEP信号の微妙な変動や重要な特徴を正確に把握し、トランスフォーマーアーキテクチャからマルチヘッドアテンション機構を統合する。
提案手法の有効性を検証するため,2つの公開データセットを用いて実験を行った。
実験の結果、IncepFormerNetはデータセット1では87.41、データセット2では71.97の精度を1.0秒のタイムウインドウで達成した。
提案モデルの有効性をさらに検証するため,他のディープラーニングモデルと比較し,提案手法が他のモデルよりもはるかに精度が高いことを示す。
関連論文リスト
- SSVEP-BiMA: Bifocal Masking Attention Leveraging Native and Symmetric-Antisymmetric Components for Robust SSVEP Decoding [22.552864992278316]
定常視覚誘発電位(SSVEP)に基づく脳-コンピュータインタフェース(BCI)は、そのシンプルさと高情報伝達速度(ITR)において一般的なパラダイムである。
本稿では,SSVEPの復号化にネイティブおよび対称非対称成分を相乗的に活用するバイオ焦点マスキングアテンションベース手法(SSVEP-BiMA)を提案する。
提案手法は,2つの公開データセットに対して実験を行い,提案手法が精度とITRの両方においてベースラインアプローチを超えることを示した。
論文 参考訳(メタデータ) (2025-02-16T04:58:59Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Attention based Dual-Branch Complex Feature Fusion Network for
Hyperspectral Image Classification [1.3249509346606658]
提案モデルはパヴィア大学とサリナスのデータセットで評価される。
その結果,提案手法は,全体の精度,平均精度,Kappaにおいて,最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-11-02T22:31:24Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - A data filling methodology for time series based on CNN and (Bi)LSTM
neural networks [0.0]
イタリア・ボルツァーノの監視アパートから得られた時系列データギャップを埋めるための2つのDeep Learningモデルを開発した。
提案手法は, 変動するデータの性質を把握し, 対象時系列の再構成に優れた精度を示す。
論文 参考訳(メタデータ) (2022-04-21T09:40:30Z) - Hybridization of Capsule and LSTM Networks for unsupervised anomaly
detection on multivariate data [0.0]
本稿では,Long-Short-Term-Memory(LSTM)とCapsule Networksを1つのネットワークに結合した新しいNNアーキテクチャを提案する。
提案手法は教師なし学習手法を用いて大量のラベル付きトレーニングデータを見つける際の問題を克服する。
論文 参考訳(メタデータ) (2022-02-11T10:33:53Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - An Explainable Machine Learning-based Network Intrusion Detection System
for Enabling Generalisability in Securing IoT Networks [0.0]
機械学習(ML)ベースのネットワーク侵入検知システムは、組織のセキュリティ姿勢を高める多くの利点をもたらす。
多くのシステムは研究コミュニティで設計・開発されており、特定のデータセットを用いて評価すると、しばしば完璧な検出率を達成する。
本稿では,異なるネットワーク環境と攻撃タイプに設定した共通機能の汎用性を評価することにより,ギャップを狭める。
論文 参考訳(メタデータ) (2021-04-15T00:44:45Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。