論文の概要: Improving SSVEP BCI Spellers With Data Augmentation and Language Models
- arxiv url: http://arxiv.org/abs/2412.20052v1
- Date: Sat, 28 Dec 2024 06:52:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:01:40.839971
- Title: Improving SSVEP BCI Spellers With Data Augmentation and Language Models
- Title(参考訳): データ拡張と言語モデルによるSSVEP BCIスペーラの改善
- Authors: Joseph Zhang, Ruiming Zhang, Kipngeno Koech, David Hill, Kateryna Shapovalenko,
- Abstract要約: SSVEPスペルは障害者のための有望なコミュニケーションツールである。
SSVEPスペルのためのディープニューラルネットワークは、しばしば未確認の被験者に対して低い精度と低い一般化性に悩まされる。
本稿では,SSVEPスペルのパフォーマンス向上のために,データ拡張と言語モデリングを組み合わせたハイブリッドアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Steady-State Visual Evoked Potential (SSVEP) spellers are a promising communication tool for individuals with disabilities. This Brain-Computer Interface utilizes scalp potential data from (electroencephalography) EEG electrodes on a subject's head to decode specific letters or arbitrary targets the subject is looking at on a screen. However, deep neural networks for SSVEP spellers often suffer from low accuracy and poor generalizability to unseen subjects, largely due to the high variability in EEG data. In this study, we propose a hybrid approach combining data augmentation and language modeling to enhance the performance of SSVEP spellers. Using the Benchmark dataset from Tsinghua University, we explore various data augmentation techniques, including frequency masking, time masking, and noise injection, to improve the robustness of deep learning models. Additionally, we integrate a language model (CharRNN) with EEGNet to incorporate linguistic context, significantly enhancing word-level decoding accuracy. Our results demonstrate accuracy improvements of up to 2.9 percent over the baseline, with time masking and language modeling showing the most promise. This work paves the way for more accurate and generalizable SSVEP speller systems, offering improved communication solutions for individuals with disabilities.
- Abstract(参考訳): 定常視覚誘発電位(SSVEP)スペルは、障害者のための有望なコミュニケーションツールである。
このBrain-Computer Interfaceは、被験者の頭上の脳波電極からの頭皮電位データを利用して、被験者が画面で見ている特定の文字や任意のターゲットをデコードする。
しかし、SSVEPスペルのためのディープニューラルネットワークは、主に脳波データのばらつきが高いため、未確認の被験者に対して低い精度と低い一般化性に悩まされることが多い。
本研究では,SSVEPスペルの性能を高めるために,データ拡張と言語モデリングを組み合わせたハイブリッド手法を提案する。
清華大学のベンチマークデータセットを用いて、周波数マスキング、時間マスキング、ノイズ注入など、さまざまなデータ拡張手法を探索し、ディープラーニングモデルの堅牢性を改善する。
さらに、言語モデル(CharRNN)をEEGNetと統合し、言語コンテキストを取り入れ、単語レベルの復号精度を大幅に向上させる。
この結果から,時間マスキングと言語モデリングが最も有望であることを示すとともに,ベースラインで最大2.9%の精度向上が得られた。
この研究は、より正確で一般化可能なSSVEPスペルシステムへの道を開き、障害者のためのコミュニケーションソリューションの改善を提供する。
関連論文リスト
- Decoding EEG Speech Perception with Transformers and VAE-based Data Augmentation [6.405846203953988]
脳波からのデコード音声は脳-コンピュータインターフェース(BCI)を進展させる可能性がある
EEGベースの音声デコーディングは、ノイズの多いデータ、限られたデータセット、音声認識のような複雑なタスクにおけるパフォーマンスの低下など、大きな課題に直面している。
本研究では,データ品質向上のために,変動型オートエンコーダ(VAE)をEEGデータ拡張に適用することにより,これらの課題に対処する。
論文 参考訳(メタデータ) (2025-01-08T08:55:10Z) - Evaluation Of P300 Speller Performance Using Large Language Models Along With Cross-Subject Training [2.231337550816627]
P300スペル脳コンピュータインタフェース(BCI)は、被験者の文字に対する脳波応答を活用することで、代替の通信媒体を提供する。
本研究は、特にマルチオブジェクトのトレーニングにおいて鍵となる制約に対処することで、そのテーマに基づいている。
論文 参考訳(メタデータ) (2024-10-19T17:23:16Z) - Towards Linguistic Neural Representation Learning and Sentence Retrieval from Electroencephalogram Recordings [27.418738450536047]
脳波信号を文に変換するための2ステップパイプラインを提案する。
まず,自然読解中に記録された脳波データから単語レベルの意味情報を学習できることを確認する。
脳波エンコーダからの予測に基づいて文章を検索するために,学習不要な検索手法を用いる。
論文 参考訳(メタデータ) (2024-08-08T03:40:25Z) - XDBERT: Distilling Visual Information to BERT from Cross-Modal Systems
to Improve Language Understanding [73.24847320536813]
本研究では,事前学習したマルチモーダル変換器から事前学習した言語エンコーダへの視覚情報の蒸留について検討する。
我々のフレームワークは,NLUの言語重み特性に適応するために学習目標を変更する一方で,視覚言語タスクにおけるクロスモーダルエンコーダの成功にインスパイアされている。
論文 参考訳(メタデータ) (2022-04-15T03:44:00Z) - Open Vocabulary Electroencephalography-To-Text Decoding and Zero-shot
Sentiment Classification [78.120927891455]
最先端のブレイン・トゥ・テキストシステムは、ニューラルネットワークを使用して脳信号から直接言語を復号することに成功した。
本稿では,自然読解課題における語彙的脳波(EEG)-テキスト列列列復号化とゼロショット文感性分類に問題を拡張する。
脳波-テキストデコーディングで40.1%のBLEU-1スコア、ゼロショット脳波に基づく3次感情分類で55.6%のF1スコアを達成し、教師付きベースラインを著しく上回る結果となった。
論文 参考訳(メタデータ) (2021-12-05T21:57:22Z) - Improving Classifier Training Efficiency for Automatic Cyberbullying
Detection with Feature Density [58.64907136562178]
言語支援の異なる特徴前処理手法を用いて特徴密度(FD)の有効性を検討した。
データセットの複雑さを推定することで、必要な実験の数を削減できると仮定する。
データセットの言語的複雑さの違いにより、言語的に支援された単語前処理の有効性を議論することが可能になる。
論文 参考訳(メタデータ) (2021-11-02T15:48:28Z) - Factorized Neural Transducer for Efficient Language Model Adaptation [51.81097243306204]
空白および語彙予測を分解し,ニューラルトランスデューサの因子化モデルを提案する。
この因子化は、音声認識のためのトランスデューサにスタンドアロン言語モデルの改善を移すことが期待できる。
提案した因子化ニューラルトランスデューサは、言語モデル適応にドメイン外テキストデータを使用する場合、15%から20%のWER改善が得られることを示す。
論文 参考訳(メタデータ) (2021-09-27T15:04:00Z) - Decoding EEG Brain Activity for Multi-Modal Natural Language Processing [9.35961671939495]
自然言語処理タスクを改善するために脳波脳活動データの可能性を体系的に分析する最初の大規模研究を行った。
脳波信号を周波数帯域にフィルタリングすることはブロードバンド信号よりも有益であることがわかった。
単語埋め込みタイプの範囲のために、EEGデータは二分および三分感情の分類を改善し、複数のベースラインを上回ります。
論文 参考訳(メタデータ) (2021-02-17T09:44:21Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - Data Augmentation for Spoken Language Understanding via Pretrained
Language Models [113.56329266325902]
音声言語理解(SLU)モデルの訓練は、しばしばデータ不足の問題に直面している。
我々は,事前学習言語モデルを用いたデータ拡張手法を提案し,生成した発話の変動性と精度を向上した。
論文 参考訳(メタデータ) (2020-04-29T04:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。