論文の概要: Boosting Template-based SSVEP Decoding by Cross-domain Transfer Learning
- arxiv url: http://arxiv.org/abs/2102.05194v1
- Date: Wed, 10 Feb 2021 00:14:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 14:26:50.184063
- Title: Boosting Template-based SSVEP Decoding by Cross-domain Transfer Learning
- Title(参考訳): クロスドメイン変換学習によるテンプレートベースのSSVEP復号化
- Authors: Kuan-Jung Chiang, Chun-Shu Wei, Masaki Nakanishi and Tzyy-Ping Jung
- Abstract要約: 我々は、最小二乗変換(LST)に基づく転送学習を取り入れて、最先端のテンプレートベースのSSVEPデコーディングを強化する。
研究結果は,既存データをドメイン間で転送する場合のSSVEPの変動を抑える上でのLSTの有効性を検証した。
- 参考スコア(独自算出の注目度): 2.454595178503407
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Objective: This study aims to establish a generalized transfer-learning
framework for boosting the performance of steady-state visual evoked potential
(SSVEP)-based brain-computer interfaces (BCIs) by leveraging cross-domain data
transferring. Approach: We enhanced the state-of-the-art template-based SSVEP
decoding through incorporating a least-squares transformation (LST)-based
transfer learning to leverage calibration data across multiple domains
(sessions, subjects, and EEG montages). Main results: Study results verified
the efficacy of LST in obviating the variability of SSVEPs when transferring
existing data across domains. Furthermore, the LST-based method achieved
significantly higher SSVEP-decoding accuracy than the standard task-related
component analysis (TRCA)-based method and the non-LST naive transfer-learning
method. Significance: This study demonstrated the capability of the LST-based
transfer learning to leverage existing data across subjects and/or devices with
an in-depth investigation of its rationale and behavior in various
circumstances. The proposed framework significantly improved the SSVEP decoding
accuracy over the standard TRCA approach when calibration data are limited. Its
performance in calibration reduction could facilitate plug-and-play SSVEP-based
BCIs and further practical applications.
- Abstract(参考訳): 目的: クロスドメインデータ転送を利用した定常視覚誘発電位(ssvep)ベースの脳コンピューターインタフェース(bcis)の性能向上を目的とした汎用トランスファー学習フレームワークの構築を目標とする。
アプローチ: 最小二乗変換(LST)に基づく変換学習を取り入れて, 最先端のテンプレートベースのSSVEPデコーディングを強化し, 複数の領域(セッション, 主題, 脳波モンタージュ)にわたる校正データを活用する。
主な結果: 研究結果は, 既存データをドメイン間で転送する際のSSVEPの変動を抑える上で, LSTの有効性を検証した。
さらに, LST法は, 標準タスク関連成分分析(TRCA)法や非LSTネーブ変換学習法よりも, SSVEP復号精度が有意に向上した。
意義:本研究は,lstを用いたトランスファー・ラーニングによる既存データ活用の可能性を実証し,様々な状況における理論と行動について詳細に検討した。
提案手法は,キャリブレーションデータ制限時の標準trca法に比べてssvep復号精度が大幅に向上した。
キャリブレーション低減の性能は、プラグアンドプレイSSVEPベースのBCIと、さらに実用的なアプリケーションを容易にする。
関連論文リスト
- Boosting Transformer's Robustness and Efficacy in PPG Signal Artifact
Detection with Self-Supervised Learning [0.0]
本研究は、自己教師付き学習(SSL)を用いて、このデータから潜伏した特徴を抽出することにより、豊富なラベル付きデータの未利用に対処する。
実験の結果,SSLはTransformerモデルの表現学習能力を大幅に向上させることがわかった。
このアプローチは、注釈付きデータがしばしば制限されるPICU環境において、より広範なアプリケーションに対して約束される。
論文 参考訳(メタデータ) (2024-01-02T04:00:48Z) - SSVEP-DAN: A Data Alignment Network for SSVEP-based Brain Computer
Interfaces [2.1192321523349404]
定常視覚誘発電位(SSVEP)ベースの脳コンピュータインタフェース(BCI)は、高速スペルシステムを介して非侵襲的な通信手段を提供する。
SSVEP-DANは、異なるドメイン間でSSVEPデータを整合させるように設計された、最初の専用ニューラルネットワークモデルである。
論文 参考訳(メタデータ) (2023-11-21T15:18:29Z) - PMU measurements based short-term voltage stability assessment of power
systems via deep transfer learning [2.1303885995425635]
本稿では, 深層移動学習を用いた新しいファサー計測ユニット (PMU) を用いたSTVSA法を提案する。
サンプルラベリングには時間的アンサンブルを採用し、データ拡張には最小2乗生成逆数ネットワーク(LSGAN)を使用している。
IEEE 39-busテストシステムの実験結果から,提案手法は伝達学習によるモデル評価精度を約20%向上することを示した。
論文 参考訳(メタデータ) (2023-08-07T23:44:35Z) - Convolutional Monge Mapping Normalization for learning on sleep data [63.22081662149488]
我々は、CMMN(Convolutional Monge Mapping Normalization)と呼ばれる新しい手法を提案する。
CMMNは、そのパワースペクトル密度(PSD)をトレーニングデータに基づいて推定されるワッサーシュタインバリセンタに適応させるために、信号をフィルタリングする。
睡眠脳波データに関する数値実験により、CMMNはニューラルネットワークアーキテクチャから独立して、顕著で一貫したパフォーマンス向上をもたらすことが示された。
論文 参考訳(メタデータ) (2023-05-30T08:24:01Z) - A Transformer-based deep neural network model for SSVEP classification [18.766260137886054]
本研究では,オブジェクト間分類シナリオにおけるトランスフォーマー構造に基づくSSVEP分類のためのディープラーニングモデルを提案する。
従来の研究から着想を得たモデルでは,SSVEPデータの周波数スペクトルを入力として採用し,分類のためのスペクトル領域情報と空間領域情報を探索する。
提案モデルでは,他のベースライン手法と比較して,分類精度と情報伝達率の点で良好な結果が得られる。
論文 参考訳(メタデータ) (2022-10-09T05:28:35Z) - An Adaptive Task-Related Component Analysis Method for SSVEP recognition [0.913755431537592]
定常視覚誘発電位(SSVEP)認識法は、被験者の校正データから学習する。
本研究では,限られたキャリブレーションデータから学習する新しい手法を開発した。
論文 参考訳(メタデータ) (2022-04-17T15:12:40Z) - A Variational Bayesian Approach to Learning Latent Variables for
Acoustic Knowledge Transfer [55.20627066525205]
本稿では,ディープニューラルネットワーク(DNN)モデルにおける潜伏変数の分布を学習するための変分ベイズ(VB)アプローチを提案する。
我々の提案するVBアプローチは,ターゲットデバイスにおいて良好な改善が得られ,しかも,13の最先端知識伝達アルゴリズムを一貫して上回っている。
論文 参考訳(メタデータ) (2021-10-16T15:54:01Z) - Latent-Optimized Adversarial Neural Transfer for Sarcasm Detection [50.29565896287595]
サーカズム検出のための共通データセットを活用するために,転送学習を適用する。
異なる損失が互いに対応できる汎用的な潜時最適化戦略を提案します。
特に、isarcasmデータセットの以前の状態よりも10.02%の絶対性能向上を達成している。
論文 参考訳(メタデータ) (2021-04-19T13:07:52Z) - Unsupervised Domain Adaptation for Speech Recognition via Uncertainty
Driven Self-Training [55.824641135682725]
WSJ をソースドメインとし,TED-Lium 3 とSWITCHBOARD を併用したドメイン適応実験を行った。
論文 参考訳(メタデータ) (2020-11-26T18:51:26Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - On Robustness and Transferability of Convolutional Neural Networks [147.71743081671508]
現代の深層畳み込みネットワーク(CNN)は、分散シフトの下で一般化しないとしてしばしば批判される。
現代画像分類CNNにおける分布外と転送性能の相互作用を初めて検討した。
トレーニングセットとモデルサイズを増大させることで、分散シフトロバスト性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-16T18:39:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。