論文の概要: A Temporal-Spectral Fusion Transformer with Subject-specific Adapter for
Enhancing RSVP-BCI Decoding
- arxiv url: http://arxiv.org/abs/2401.06340v1
- Date: Fri, 12 Jan 2024 03:18:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 20:31:48.602257
- Title: A Temporal-Spectral Fusion Transformer with Subject-specific Adapter for
Enhancing RSVP-BCI Decoding
- Title(参考訳): rsvp-bciデコード強化用サブジェクト固有アダプタ付き時間スペクトル核融合トランス
- Authors: Xujin Li, Wei Wei, Shuang Qiu, and Huiguang He
- Abstract要約: RSVP-based Brain-Computer Interface (BCI) は脳波(EEG)信号を用いた標的探索のための効率的な技術である。
従来の復号法は、新しい被験者からのかなりの量のトレーニングデータに依存している。
そこで本研究では,既存の対象データから学習したモデルの知識を高速に伝達し,新たな対象データからデコードする対象特化アダプタを提案する。
- 参考スコア(独自算出の注目度): 15.000487099591776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Rapid Serial Visual Presentation (RSVP)-based Brain-Computer Interface
(BCI) is an efficient technology for target retrieval using
electroencephalography (EEG) signals. The performance improvement of
traditional decoding methods relies on a substantial amount of training data
from new test subjects, which increases preparation time for BCI systems.
Several studies introduce data from existing subjects to reduce the dependence
of performance improvement on data from new subjects, but their optimization
strategy based on adversarial learning with extensive data increases training
time during the preparation procedure. Moreover, most previous methods only
focus on the single-view information of EEG signals, but ignore the information
from other views which may further improve performance. To enhance decoding
performance while reducing preparation time, we propose a Temporal-Spectral
fusion transformer with Subject-specific Adapter (TSformer-SA). Specifically, a
cross-view interaction module is proposed to facilitate information transfer
and extract common representations across two-view features extracted from EEG
temporal signals and spectrogram images. Then, an attention-based fusion module
fuses the features of two views to obtain comprehensive discriminative features
for classification. Furthermore, a multi-view consistency loss is proposed to
maximize the feature similarity between two views of the same EEG signal.
Finally, we propose a subject-specific adapter to rapidly transfer the
knowledge of the model trained on data from existing subjects to decode data
from new subjects. Experimental results show that TSformer-SA significantly
outperforms comparison methods and achieves outstanding performance with
limited training data from new subjects. This facilitates efficient decoding
and rapid deployment of BCI systems in practical use.
- Abstract(参考訳): The Rapid Serial Visual Presentation (RSVP)-based Brain-Computer Interface (BCI) は脳波(EEG)信号を用いたターゲット検索のための効率的な技術である。
従来の復号法の性能改善は、BCIシステムの準備時間を増加させる新しい被験者のトレーニングデータに大きく依存している。
いくつかの研究は、既存の被験者のデータを新しい被験者のデータに対するパフォーマンス改善の依存性を減らすために導入するが、広範囲なデータを含む敵対的学習に基づく最適化戦略は、準備過程におけるトレーニング時間を増加させる。
さらに,従来の手法では脳波信号の単一ビュー情報のみに焦点が当てられているが,他のビューからの情報は無視されているため,さらなる性能向上が期待できる。
準備時間を短縮しつつデコード性能を向上させるため,被験者固有アダプタ(TSformer-SA)を用いた時間スペクトル融合トランスを提案する。
具体的には,脳波時間信号とスペクトログラム画像から抽出した2視点特徴の共通表現を抽出し,情報伝達を容易にするクロスビューインタラクションモジュールを提案する。
そして、注意に基づく融合モジュールは、2つのビューの特徴を融合して、分類のための包括的識別特徴を得る。
さらに、同一脳波信号の2つのビュー間の特徴類似性を最大化するために、マルチビュー一貫性損失を提案する。
最後に,既存の対象データから学習したモデルの知識を高速に伝達し,新たな対象データからデコードする対象特化アダプタを提案する。
実験の結果,TSformer-SAは比較法を著しく上回り,新しい被験者の限られたトレーニングデータで優れた性能を発揮することがわかった。
これにより、bciシステムの効率的なデコードと迅速な展開が実用化される。
関連論文リスト
- Data Augmentation for Traffic Classification [54.92823760790628]
Data Augmentation (DA) はコンピュータビジョン(CV)と自然言語処理(NLP)に広く採用されている技術である。
DAはネットワークのコンテキスト、特にトラフィック分類(TC)タスクにおいて、牽引力を得るのに苦労しています。
論文 参考訳(メタデータ) (2024-01-19T15:25:09Z) - PREM: A Simple Yet Effective Approach for Node-Level Graph Anomaly
Detection [65.24854366973794]
ノードレベルのグラフ異常検出(GAD)は、医学、ソーシャルネットワーク、eコマースなどの分野におけるグラフ構造化データから異常ノードを特定する上で重要な役割を果たす。
本稿では,GADの効率を向上させるために,PREM (preprocessing and Matching) という簡単な手法を提案する。
我々のアプローチは、強力な異常検出機能を維持しながら、GADを合理化し、時間とメモリ消費を削減します。
論文 参考訳(メタデータ) (2023-10-18T02:59:57Z) - Revisiting the Encoding of Satellite Image Time Series [2.5874041837241304]
画像時系列(SITS)時間学習は、高時間分解能と不規則な取得時間のために複雑である。
我々は、クエリベースのトランスフォーマーデコーダを採用する最近のトレンドに触発されて、直接セット予測問題としてSITS処理の新たな視点を開発する。
衛星PASTISベンチマークデータセットを用いて,SOTA(State-of-the-art)の新たな結果を得た。
論文 参考訳(メタデータ) (2023-05-03T12:44:20Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Improving the performance of EEG decoding using anchored-STFT in
conjunction with gradient norm adversarial augmentation [0.22835610890984162]
EEG信号は空間分解能が低く、しばしばノイズやアーティファクトで歪められる。
ディープラーニングアルゴリズムは、隠れた意味のあるパターンを学習するのに非常に効率的であることが証明されている。
本研究では,新しい深層学習モデルと組み合わせた入力生成(機能抽出)手法を提案する。
論文 参考訳(メタデータ) (2020-11-30T11:18:06Z) - Transfer Learning for Motor Imagery Based Brain-Computer Interfaces: A
Complete Pipeline [54.73337667795997]
移動学習(TL)は、新しい被験者の校正作業を減らすために、運動画像(MI)ベースの脳-コンピュータインタフェース(BCI)に広く用いられている。
本稿では,MIベースのBCIの3つのコンポーネント(空間フィルタリング,特徴工学,分類)すべてにおいてTLが考慮できることを示す。
論文 参考訳(メタデータ) (2020-07-03T23:44:21Z) - Few-Shot Relation Learning with Attention for EEG-based Motor Imagery
Classification [11.873435088539459]
脳波(EEG)信号に基づく脳-コンピュータインタフェース(BCI)が注目されている。
運動画像(MI)データは、リハビリテーションや自律運転のシナリオに使用することができる。
脳波に基づくBCIシステムにはMI信号の分類が不可欠である。
論文 参考訳(メタデータ) (2020-03-03T02:34:44Z) - Joint Deep Learning of Facial Expression Synthesis and Recognition [97.19528464266824]
顔表情の合成と認識を効果的に行うための新しい統合深層学習法を提案する。
提案手法は, 2段階の学習手順を伴い, まず, 表情の異なる顔画像を生成するために, 表情合成生成対向ネットワーク (FESGAN) を事前訓練する。
実画像と合成画像間のデータバイアスの問題を軽減するために,新しい実データ誘導バックプロパゲーション(RDBP)アルゴリズムを用いたクラス内損失を提案する。
論文 参考訳(メタデータ) (2020-02-06T10:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。