論文の概要: Towards a Fast Steady-State Visual Evoked Potentials (SSVEP)
Brain-Computer Interface (BCI)
- arxiv url: http://arxiv.org/abs/2002.01171v2
- Date: Tue, 12 May 2020 05:40:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 02:40:48.663595
- Title: Towards a Fast Steady-State Visual Evoked Potentials (SSVEP)
Brain-Computer Interface (BCI)
- Title(参考訳): 高速定常視覚誘発電位(SSVEP)脳-コンピュータインタフェース(BCI)を目指して
- Authors: Aung Aung Phyo Wai, Yangsong Zhang, Heng Guo, Ying Chi, Lei Zhang,
Xian-Sheng Hua, Seong Whan Lee and Cuntai Guan
- Abstract要約: 本研究では,空間フィルタと時間的アライメント(CSTA)を組み合わせて,サブ秒応答時間におけるSSVEP応答を認識する訓練自由手法を提案する。
CSTAは、定常応答と相補的な融合を伴う刺激テンプレートの線形相関と非線形類似性を利用して、良好な性能向上を実現する。
- 参考スコア(独自算出の注目度): 46.83815094477545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Steady-state visual evoked potentials (SSVEP) brain-computer interface (BCI)
provides reliable responses leading to high accuracy and information
throughput. But achieving high accuracy typically requires a relatively long
time window of one second or more. Various methods were proposed to improve
sub-second response accuracy through subject-specific training and calibration.
Substantial performance improvements were achieved with tedious calibration and
subject-specific training; resulting in the user's discomfort. So, we propose a
training-free method by combining spatial-filtering and temporal alignment
(CSTA) to recognize SSVEP responses in sub-second response time. CSTA exploits
linear correlation and non-linear similarity between steady-state responses and
stimulus templates with complementary fusion to achieve desirable performance
improvements. We evaluated the performance of CSTA in terms of accuracy and
Information Transfer Rate (ITR) in comparison with both training-based and
training-free methods using two SSVEP data-sets. We observed that CSTA achieves
the maximum mean accuracy of 97.43$\pm$2.26 % and 85.71$\pm$13.41 % with
four-class and forty-class SSVEP data-sets respectively in sub-second response
time in offline analysis. CSTA yields significantly higher mean performance
(p<0.001) than the training-free method on both data-sets. Compared with
training-based methods, CSTA shows 29.33$\pm$19.65 % higher mean accuracy with
statistically significant differences in time window less than 0.5 s. In longer
time windows, CSTA exhibits either better or comparable performance though not
statistically significantly better than training-based methods. We show that
the proposed method brings advantages of subject-independent SSVEP
classification without requiring training while enabling high target
recognition performance in sub-second response time.
- Abstract(参考訳): 定常視覚誘発電位(SSVEP) 脳コンピュータインタフェース(BCI)は、高い精度と情報スループットをもたらす信頼性の高い応答を提供する。
しかし、高い精度を達成するには、通常は1秒以上という比較的長い時間を要する。
被験者固有のトレーニングと校正によって, サブ秒応答精度を向上させるための様々な手法が提案された。
退屈なキャリブレーションと主題固有のトレーニングによってパフォーマンスが大幅に改善され、結果としてユーザの不快感が高まった。
そこで我々は,空間フィルタと時間アライメント(CSTA)を組み合わせて,SSVEP応答を秒以下の応答時間で認識する訓練自由手法を提案する。
CSTAは、定常応答と相補融合による刺激テンプレートの線形相関と非線形類似性を利用して、良好な性能向上を実現する。
CSTAの精度と情報伝達率(ITR)を2つのSSVEPデータセットを用いたトレーニングベースおよびトレーニングフリー手法と比較して評価した。
オフライン解析において, CSTA は 4 級と 4 級の SSVEP データセットで 97.43$\pm$2.26 % と 85.71$\pm$13.41 % の最大平均精度を達成した。
CSTAは両データセットのトレーニング不要法よりも平均性能(p<0.001)が有意に高い。
トレーニングベースの手法と比較して、CSTAは平均精度が29.33$\pm$19.65%高く、時間窓の統計的差は0.5秒未満である。
長い時間窓では、CSTAはトレーニングベースの方法よりも統計的に有意に優れた性能を示すが、同等のパフォーマンスを示す。
提案手法は,サブ秒応答時間において高い目標認識性能を実現しつつ,トレーニングを必要とせず,主観非依存のSSVEP分類の利点をもたらすことを示す。
関連論文リスト
- Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Efficient yet Competitive Speech Translation: FBK@IWSLT2022 [16.863166577241152]
ソース文字とターゲット文字の比を求める単純な手法が1BLEUの品質向上をもたらすことを示す。
トレーニングコストの削減という同じ目標に向けて、オフラインSTでトレーニングされた同じモデルで同時タスクに参加します。
MST-C en-de corpus (26.7 BLEU) で得られた高得点を用いて, 軽量トレーニング戦略の有効性を示す。
論文 参考訳(メタデータ) (2022-05-05T13:13:48Z) - An Adaptive Task-Related Component Analysis Method for SSVEP recognition [0.913755431537592]
定常視覚誘発電位(SSVEP)認識法は、被験者の校正データから学習する。
本研究では,限られたキャリブレーションデータから学習する新しい手法を開発した。
論文 参考訳(メタデータ) (2022-04-17T15:12:40Z) - Self-critical Sequence Training for Automatic Speech Recognition [25.06635361326706]
本稿では,自己臨界シーケンストレーニング(SCST)と呼ばれる最適化手法を提案する。
強化学習(RL)に基づく手法として、SCSTはトレーニング基準とWERを関連付けるために、カスタマイズされた報酬関数を利用する。
その結果,提案したSCSTは,WERの基準値に対して,それぞれ8.7%,7.8%の相対的な改善が得られた。
論文 参考訳(メタデータ) (2022-04-13T09:13:32Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - Unsupervised Domain Adaptation for Speech Recognition via Uncertainty
Driven Self-Training [55.824641135682725]
WSJ をソースドメインとし,TED-Lium 3 とSWITCHBOARD を併用したドメイン適応実験を行った。
論文 参考訳(メタデータ) (2020-11-26T18:51:26Z) - SASL: Saliency-Adaptive Sparsity Learning for Neural Network
Acceleration [20.92912642901645]
そこで本稿では、さらなる最適化のために、SASL(Saliency-Adaptive Sparsity Learning)アプローチを提案する。
ResNet-50 の 49.7% の FLOP を 0.39% のトップ-1 と 0.05% のトップ-5 の精度で削減できる。
論文 参考訳(メタデータ) (2020-03-12T16:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。