論文の概要: SpellerSSL: Self-Supervised Learning with P300 Aggregation for Speller BCIs
- arxiv url: http://arxiv.org/abs/2509.19401v1
- Date: Tue, 23 Sep 2025 06:28:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.54207
- Title: SpellerSSL: Self-Supervised Learning with P300 Aggregation for Speller BCIs
- Title(参考訳): SpellerSSL: Speller BCIのためのP300集約による自己監視型学習
- Authors: Jiazhen Hong, Geoff Mackellar, Soheila Ghane,
- Abstract要約: 自己教師付き学習(SSL)とP300アグリゲーションを組み合わせたフレームワークであるSpellerSSLを提案する。
我々は、カスタマイズされた1D U-Netバックボーンを使用し、クロスドメインとインドメインのEEGデータの両方でモデルを事前訓練する。
SSLは、ドメイン内およびクロスドメインの両方で有効なEEG表現を学習し、ドメイン内が最先端文字認識率94%を達成することを示す。
- 参考スコア(独自算出の注目度): 1.2948435624919326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Electroencephalogram (EEG)-based P300 speller brain-computer interfaces (BCIs) face three main challenges: low signal-to-noise ratio (SNR), poor generalization, and time-consuming calibration. We propose SpellerSSL, a framework that combines self-supervised learning (SSL) with P300 aggregation to address these issues. First, we introduce an aggregation strategy to enhance SNR. Second, to achieve generalization in training, we employ a customized 1D U-Net backbone and pretrain the model on both cross-domain and in-domain EEG data. The pretrained model is subsequently fine-tuned with a lightweight ERP-Head classifier for P300 detection, which adapts the learned representations to subject-specific data. Our evaluations on calibration time demonstrate that combining the aggregation strategy with SSL significantly reduces the calibration burden per subject and improves robustness across subjects. Experimental results show that SSL learns effective EEG representations in both in-domain and cross-domain, with in-domain achieving a state-of-the-art character recognition rate of 94% with only 7 repetitions and the highest information transfer rate (ITR) of 21.86 bits/min on the public II-B dataset. Moreover, in-domain SSL with P300 aggregation reduces the required calibration size by 60% while maintaining a comparable character recognition rate. To the best of our knowledge, this is the first study to apply SSL to P300 spellers, highlighting its potential to improve both efficiency and generalization in speller BCIs and paving the way toward an EEG foundation model for P300 speller BCIs.
- Abstract(参考訳): 脳波(EEG)に基づくP300スペル脳-コンピュータインタフェース(BCI)は、低信号-雑音比(SNR)、低一般化、時間消費キャリブレーションという3つの大きな課題に直面している。
これらの問題に対処するために,自己教師付き学習(SSL)とP300アグリゲーションを組み合わせたフレームワークであるSpellerSSLを提案する。
まず,SNRを強化するアグリゲーション戦略を導入する。
第2に、トレーニングにおける一般化を実現するために、カスタマイズされた1D U-Netバックボーンを使用し、クロスドメインとインドメインのEEGデータの両方でモデルを事前訓練する。
事前訓練されたモデルは、P300検出のための軽量ERP-Head分類器で微調整され、学習された表現を主観的なデータに適応させる。
キャリブレーション時間に関する評価では,アグリゲーション戦略とSSLを組み合わせることで,被検体ごとのキャリブレーション負担を大幅に低減し,被検体間のロバスト性を向上させることが示されている。
実験の結果、SSLはドメイン内およびクロスドメインの両方で有効なEEG表現を学習し、ドメイン内では7つの繰り返ししか持たない最先端の文字認識率94%、公開II-Bデータセット上では21.86ビット/分が最も高い情報転送レート(ITR)を達成した。
さらに、P300アグリゲーションを持つドメイン内のSSLは、同等の文字認識率を維持しながら、必要なキャリブレーションサイズを60%削減する。
私たちの知る限りでは、SSLをP300スペルに適用する最初の研究であり、スペルBCIの効率性と一般化の両方を改善する可能性を強調し、P300スペルBCIのEEG基盤モデルへの道を開いた。
関連論文リスト
- Subject Representation Learning from EEG using Graph Convolutional Variational Autoencoders [20.364067310176054]
GC-VASEはグラフ畳み込みに基づく変分オートエンコーダであり、脳波データからの主観的表現学習にコントラスト学習を利用する。
本手法は,主観的識別に適した分割ラテント空間アーキテクチャを用いて,頑健な主観的潜在表現をうまく学習する。
論文 参考訳(メタデータ) (2025-01-13T17:29:31Z) - Transfer Learning with Active Sampling for Rapid Training and Calibration in BCI-P300 Across Health States and Multi-centre Data [0.13124513975412253]
機械学習とディープラーニングの進歩により、Brain-Computer Interface(BCI)のパフォーマンスが向上した。
個々の健康、ハードウェアのバリエーション、そしてニューラルデータに影響を与える文化的差異などの要因により、適用範囲は限られている。
適応的な伝達学習を備えた畳み込みニューラルネットワークを用いたBCIにおけるP300波の検出を提案する。
論文 参考訳(メタデータ) (2024-12-14T14:20:21Z) - Efficient Continual Pre-training by Mitigating the Stability Gap [68.49269649759005]
本研究では,Large Language Models (LLM) の継続事前学習における挙動について検討する。
固定された計算予算内でのLLM性能を向上させるための3つの効果的な戦略を提案する。
当社の戦略は,OpenLlama-3Bモデルの平均医療タスク性能を36.2%から40.7%に改善し,当初のトレーニング予算の40%に過ぎなかった。
論文 参考訳(メタデータ) (2024-06-21T02:28:37Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Getting More Juice Out of Your Data: Hard Pair Refinement Enhances Visual-Language Models Without Extra Data [122.282521548393]
コントラスト言語-画像事前学習 (CLIP) は, クロスモーダルな画像-テキスト表現学習の標準となっている。
HELIPは、CLIPモデルを改善するためのコスト効率のよい戦略であり、継続的なトレーニングにおいて既存のデータセット内の挑戦的なテキストイメージペアを利用することで、CLIPモデルを改善する。
論文 参考訳(メタデータ) (2023-05-09T07:00:17Z) - Bayesian Inference on Brain-Computer Interfaces via GLASS [4.04514704204904]
脳波信号の低信号対雑音比(SNR)と複雑な空間的・時間的相関は、モデリングと計算における課題を示す。
完全ベイズ的枠組みの下でスパース時間変化効果(GLASS)を持つ新しいガウスラテントチャネルモデルを導入する。
筋萎縮性側索硬化症(ALS)患者におけるGLASSによるBCI改善効果について検討した。
より広範なアクセシビリティを実現するため、我々は後方計算のための効率的な勾配に基づく変分推論(GBVI)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-04-14T21:29:00Z) - Rethinking Self-Supervised Visual Representation Learning in
Pre-training for 3D Human Pose and Shape Estimation [57.206129938611454]
自己教師付き表現学習(SSL)法は、オブジェクト検出などの視覚タスクのためのImageNet分類前トレーニングよりも優れている。
我々は、SSLの効果を実証的に研究し分析し、3DHPSEの事前学習方法と比較した。
我々の観察では、現在のSSLの3DHPSEへの初歩的な適用に挑戦し、事前トレーニングの側面において、他のデータ型の価値を啓蒙する。
論文 参考訳(メタデータ) (2023-03-09T16:17:52Z) - Speech separation with large-scale self-supervised learning [41.96634125460265]
WavLMのような自己教師付き学習(SSL)手法は、小規模なシミュレーションに基づく実験において、有望な音声分離(SS)結果を示している。
トレーニング済みデータ(300K時間以上)と微調整データ(10K時間以上)の両方を大規模にスケールアップすることで、SSLベースのSSの探索を拡張します。
論文 参考訳(メタデータ) (2022-11-09T20:00:21Z) - Fuzzy temporal convolutional neural networks in P300-based
Brain-computer interface for smart home interaction [3.726817037277484]
脳波パターンは、ノイズによる時間的変化と不確実性を示す。
これは、スマートホームインタラクションのためのP300ベースのBrain Computer Interfaceで対処すべき重要な問題である。
脳波信号、LSTM細胞、ファジィニューラルブロック(FNB)に修飾された時間畳み込みネットワーク(TCN)の逐次統合を提案する。
論文 参考訳(メタデータ) (2022-04-09T00:35:35Z) - Improving Efficiency in Large-Scale Decentralized Distributed Training [58.80224380923698]
通信コストを最小化しつつ、スペクトルギャップを改善して(A)D-PSGDに基づくトレーニングを加速する手法を提案する。
提案手法の有効性を示すために,2000時間Switchboard音声認識タスクとImageNetコンピュータビジョンタスクの実験を行った。
論文 参考訳(メタデータ) (2020-02-04T04:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。