論文の概要: A Novel Deep Learning Architecture for Decoding Imagined Speech from EEG
- arxiv url: http://arxiv.org/abs/2003.09374v1
- Date: Thu, 19 Mar 2020 00:57:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 03:56:32.166251
- Title: A Novel Deep Learning Architecture for Decoding Imagined Speech from EEG
- Title(参考訳): 脳波から想像音声を復号化するための新しいディープラーニングアーキテクチャ
- Authors: Jerrin Thomas Panachakel, A.G. Ramakrishnan, T.V. Ananthapadmanabha
- Abstract要約: 我々は、ディープニューラルネットワーク(DNN)を用いて、"in"と"cooperate"の単語を分類する新しいアーキテクチャを提案する。
9つの脳波チャンネルは、下層の皮質活動を最もよく捉え、共通空間パターンを用いて選択される。
我々は最先端の結果に匹敵する精度を達成した。
- 参考スコア(独自算出の注目度): 2.4063592468412267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent advances in the field of deep learning have not been fully
utilised for decoding imagined speech primarily because of the unavailability
of sufficient training samples to train a deep network. In this paper, we
present a novel architecture that employs deep neural network (DNN) for
classifying the words "in" and "cooperate" from the corresponding EEG signals
in the ASU imagined speech dataset. Nine EEG channels, which best capture the
underlying cortical activity, are chosen using common spatial pattern (CSP) and
are treated as independent data vectors. Discrete wavelet transform (DWT) is
used for feature extraction. To the best of our knowledge, so far DNN has not
been employed as a classifier in decoding imagined speech. Treating the
selected EEG channels corresponding to each imagined word as independent data
vectors helps in providing sufficient number of samples to train a DNN. For
each test trial, the final class label is obtained by applying a majority
voting on the classification results of the individual channels considered in
the trial. We have achieved accuracies comparable to the state-of-the-art
results. The results can be further improved by using a higher-density EEG
acquisition system in conjunction with other deep learning techniques such as
long short-term memory.
- Abstract(参考訳): 近年のディープラーニング分野の進歩は、深層ネットワークのトレーニングに十分なトレーニングサンプルが不十分であることから、想像された音声の復号化に十分に活用されていない。
本稿では,ASUの音声データセットにおける対応する脳波信号から,ディープニューラルネットワーク(DNN)を用いて"in"と"cooperate"の単語を分類するアーキテクチャを提案する。
9つの脳波チャンネルは, 共通空間パターン (CSP) を用いて選択され, 独立したデータベクトルとして扱われる。
特徴抽出には離散ウェーブレット変換(DWT)を用いる。
我々の知る限りでは、DNNは想像された音声の復号化において分類器として使われていない。
個々の単語に対応する選択されたEEGチャネルを独立したデータベクトルとして扱うことは、DNNをトレーニングするための十分な数のサンプルを提供するのに役立つ。
各試験試験において、最終クラスラベルは、試験で考慮された個々のチャンネルの分類結果に多数決を施して得られる。
我々は最先端の結果に匹敵する精度を達成した。
長期記憶などの他の深層学習技術とともに高密度脳波取得システムを使用することにより、さらなる改善が可能となる。
関連論文リスト
- Novel Deep Neural Network Classifier Characterization Metrics with Applications to Dataless Evaluation [1.6574413179773757]
本研究では、サンプルデータセットを使わずに、ディープニューラルネットワーク(DNN)分類器のトレーニング品質を評価する。
CAFIR10およびCAFIR100データセットを用いて学習したResNet18の手法に関する実証的研究により、DNN分類器のデータレス評価が実際に可能であることを確認した。
論文 参考訳(メタデータ) (2024-07-17T20:40:46Z) - Semantics Alignment via Split Learning for Resilient Multi-User Semantic
Communication [56.54422521327698]
最近の意味コミュニケーションの研究は、ディープジョイントソースやチャネルコーディング(DeepJSCC)のようなニューラルネットワーク(NN)ベースのトランシーバに依存している。
従来のトランシーバとは異なり、これらのニューラルトランシーバは実際のソースデータとチャネルを使用してトレーニング可能であり、セマンティクスを抽出し通信することができる。
本稿では,分割学習(SL)と部分的NN微調整技術を活用する分散学習ベースソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-13T20:29:55Z) - Spiking Neural Network Decision Feedback Equalization [70.3497683558609]
決定フィードバック等化器(DFE)に似たフィードバック構造を持つSNNベースの等化器を提案する。
提案手法は,3種類の模範チャネルに対して,従来の線形等化器よりも明らかに優れていることを示す。
決定フィードバック構造を持つSNNは、競合エネルギー効率の良いトランシーバへのパスを可能にする。
論文 参考訳(メタデータ) (2022-11-09T09:19:15Z) - Preliminary study on using vector quantization latent spaces for TTS/VC
systems with consistent performance [55.10864476206503]
本稿では,潜在言語埋め込みをモデル化するための量子化ベクトルの利用について検討する。
トレーニングにおいて、潜伏空間上の異なるポリシーを強制することにより、潜伏言語埋め込みを得ることができる。
実験の結果,ベクトル量子化法で構築した音声クローニングシステムは,知覚的評価の点でわずかに劣化していることがわかった。
論文 参考訳(メタデータ) (2021-06-25T07:51:35Z) - BENDR: using transformers and a contrastive self-supervised learning
task to learn from massive amounts of EEG data [15.71234837305808]
言語モデリング(LM)の手法とアーキテクチャを脳波モデリング(EM)に適用する方法を検討する。
1つの事前学習モデルが、異なるハードウェアで記録された全く新しい生の脳波シーケンスをモデル化できることがわかった。
このモデルの内部表現とアーキテクチャ全体は、さまざまな下流のBCIおよびEEG分類タスクに微調整することができる。
論文 参考訳(メタデータ) (2021-01-28T14:54:01Z) - A Deep Neural Network for SSVEP-based Brain-Computer Interfaces [3.0595138995552746]
脳-コンピュータインターフェース(BCI)のスペルのターゲット識別(英: Target Identification)とは、被験者がスペルを意図したターゲット特性を予測する脳波分類(EEG)を指す。
この設定では、ターゲット同定に対処し、新しいディープニューラルネットワーク(DNN)アーキテクチャを提案する。
提案したDNNは、マルチチャネルSSVEPを、ハーモニック、チャンネル、時間、および完全に接続された層で分類されたサブバンド間の畳み込みで処理する。
論文 参考訳(メタデータ) (2020-11-17T11:11:19Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Fast accuracy estimation of deep learning based multi-class musical
source separation [79.10962538141445]
本稿では,ニューラルネットワークのトレーニングやチューニングを行うことなく,任意のデータセットにおける楽器の分離性を評価する手法を提案する。
理想的な比マスクを持つオラクルの原理に基づいて、我々の手法は最先端のディープラーニング手法の分離性能を推定するための優れたプロキシである。
論文 参考訳(メタデータ) (2020-10-19T13:05:08Z) - Attention Driven Fusion for Multi-Modal Emotion Recognition [39.295892047505816]
本稿では,感情分類のためのテキストと音響データを活用・融合するための深層学習に基づくアプローチを提案する。
我々は、帯域通過フィルタを用いたパラメータ化シンク関数に基づくSincNet層を用いて、生音声から音響特徴を抽出し、DCNNで処理する。
テキスト処理では,N-gramレベルの相関を推定するために,2つの分岐(DCNNとBi-direction RNNとDCNN)を並列に使用する。
論文 参考訳(メタデータ) (2020-09-23T08:07:58Z) - MetricUNet: Synergistic Image- and Voxel-Level Learning for Precise CT
Prostate Segmentation via Online Sampling [66.01558025094333]
本稿では,前立腺領域を高速に局在させる第1段階と,前立腺領域を正確に区分する第2段階の2段階のフレームワークを提案する。
マルチタスクネットワークにおけるボクセルワイドサンプリングによる新しいオンラインメトリック学習モジュールを提案する。
本手法は,従来のクロスエントロピー学習法やDice損失学習法と比較して,より代表的なボクセルレベルの特徴を効果的に学習することができる。
論文 参考訳(メタデータ) (2020-05-15T10:37:02Z) - Decoding Imagined Speech using Wavelet Features and Deep Neural Networks [2.4063592468412267]
本稿では, 深層ニューラルネットワークを用いた予測音声の分類手法を提案する。
提案手法では、脳の特定の領域にのみEEGチャネルを用いて分類し、それぞれのチャネルから特徴ベクトルを導出する。
提案したアーキテクチャとデータ処理のアプローチにより,57.15%の平均分類精度が向上し,最先端の結果よりも約35%向上した。
論文 参考訳(メタデータ) (2020-03-19T00:36:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。