論文の概要: Cueless EEG imagined speech for subject identification: dataset and benchmarks
- arxiv url: http://arxiv.org/abs/2501.09700v1
- Date: Thu, 16 Jan 2025 17:54:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 15:11:21.180302
- Title: Cueless EEG imagined speech for subject identification: dataset and benchmarks
- Title(参考訳): Cueless EEG imagined speech for subject Identification: dataset and benchmarks
- Authors: Ali Derakhshesh, Zahra Dehghanian, Reza Ebrahimpour, Hamid R. Rabiee,
- Abstract要約: 脳波をベースとした疑似音声パラダイムを導入し,外的手がかりを伴わない意味論的意味のある単語の発音を被験者が想像する。
分類精度は97.93%であった。
これらの知見は、現実世界のアプリケーションにおいて、セキュアで信頼性の高い被検体識別のためのキューレス脳波パラダイムの可能性を浮き彫りにした。
- 参考スコア(独自算出の注目度): 2.6499018693213316
- License:
- Abstract: Electroencephalogram (EEG) signals have emerged as a promising modality for biometric identification. While previous studies have explored the use of imagined speech with semantically meaningful words for subject identification, most have relied on additional visual or auditory cues. In this study, we introduce a cueless EEG-based imagined speech paradigm, where subjects imagine the pronunciation of semantically meaningful words without any external cues. This innovative approach addresses the limitations of prior methods by requiring subjects to select and imagine words from a predefined list naturally. The dataset comprises over 4,350 trials from 11 subjects across five sessions. We assess a variety of classification methods, including traditional machine learning techniques such as Support Vector Machines (SVM) and XGBoost, as well as time-series foundation models and deep learning architectures specifically designed for EEG classification, such as EEG Conformer and Shallow ConvNet. A session-based hold-out validation strategy was employed to ensure reliable evaluation and prevent data leakage. Our results demonstrate outstanding classification accuracy, reaching 97.93%. These findings highlight the potential of cueless EEG paradigms for secure and reliable subject identification in real-world applications, such as brain-computer interfaces (BCIs).
- Abstract(参考訳): 脳波(EEG)信号は生体認証のための有望なモダリティとして出現している。
従来の研究では、主観的識別のための意味論的意味のある単語を用いた想像音声の使用について検討されてきたが、その多くは視覚的・聴覚的手がかりに頼っている。
本研究では,外的手がかりのない意味論的意味のある単語の発音を被験者が想像する,クエレス脳波に基づく想像的音声パラダイムを提案する。
この革新的なアプローチは、あらかじめ定義されたリストから単語を自然に選択し、想像することを要求することによって、先行手法の限界に対処する。
データセットは5回のセッションで11人の被験者から4350以上のトライアルで構成されている。
我々は,SVM(Support Vector Machines)やXGBoost(XGBoost)といった従来の機械学習手法や,EEG ConformerやShallow ConvNetなどのEEG分類用に特別に設計された時系列基礎モデルやディープラーニングアーキテクチャなど,さまざまな分類手法を評価する。
セッションベースのホールドアウト検証戦略が採用され、信頼性の高い評価が保証され、データの漏洩を防止する。
分類精度は97.93%であった。
これらの知見は、脳-コンピュータインタフェース(BCI)のような現実世界のアプリケーションにおいて、セキュアで信頼性の高い被検体識別のためのキューレス脳波パラダイムの可能性を浮き彫りにした。
関連論文リスト
- Decoding EEG Speech Perception with Transformers and VAE-based Data Augmentation [6.405846203953988]
脳波からのデコード音声は脳-コンピュータインターフェース(BCI)を進展させる可能性がある
EEGベースの音声デコーディングは、ノイズの多いデータ、限られたデータセット、音声認識のような複雑なタスクにおけるパフォーマンスの低下など、大きな課題に直面している。
本研究では,データ品質向上のために,変動型オートエンコーダ(VAE)をEEGデータ拡張に適用することにより,これらの課題に対処する。
論文 参考訳(メタデータ) (2025-01-08T08:55:10Z) - Support Vector Machine for Person Classification Using the EEG Signals [0.4419843514606336]
本稿では,この課題に対処するために,脳波信号を用いた個人識別を提案する。
脳波信号は、有望な認証可能性を提供し、活力検出のための新しい手段を提供し、それによって偽造攻撃を緩和する。
本研究では8チャンネルのOpenBCIヘルメットを用いて記録された12人の被験者の脳波データを特徴付ける疲労解析のために最初にコンパイルされたパブリックデータセットを用いる。
論文 参考訳(メタデータ) (2024-11-26T14:03:58Z) - SONAR: A Synthetic AI-Audio Detection Framework and Benchmark [59.09338266364506]
SONARはAI-Audio Detection FrameworkとBenchmarkの合成である。
最先端のAI合成聴覚コンテンツを識別するための総合的な評価を提供することを目的としている。
従来のモデルとファンデーションベースのディープフェイク検出システムの両方で、AIオーディオ検出を均一にベンチマークする最初のフレームワークである。
論文 参考訳(メタデータ) (2024-10-06T01:03:42Z) - Towards Linguistic Neural Representation Learning and Sentence Retrieval from Electroencephalogram Recordings [27.418738450536047]
脳波信号を文に変換するための2ステップパイプラインを提案する。
まず,自然読解中に記録された脳波データから単語レベルの意味情報を学習できることを確認する。
脳波エンコーダからの予測に基づいて文章を検索するために,学習不要な検索手法を用いる。
論文 参考訳(メタデータ) (2024-08-08T03:40:25Z) - SER_AMPEL: a multi-source dataset for speech emotion recognition of
Italian older adults [58.49386651361823]
SER_AMPELは、音声感情認識のためのマルチソースデータセットである。
イタリア人の高齢者の場合、音声による感情認識の基準を提供する目的で収集される。
このようなデータセットの必要性の証拠は、技術の現状の分析から生まれる。
論文 参考訳(メタデータ) (2023-11-24T13:47:25Z) - Inter-subject Contrastive Learning for Subject Adaptive EEG-based Visual
Recognition [20.866855009168606]
本稿では,主観的適応脳波に基づく視覚認識の課題に取り組む。
脳波信号に基づいて視覚刺激のカテゴリを正確に予測することを目的としている。
同一クラスを共有する特徴の類似性を高めて,異なる対象から得られる特徴の類似性を高めることによって,対象非依存表現を学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-07T01:34:57Z) - Open Vocabulary Electroencephalography-To-Text Decoding and Zero-shot
Sentiment Classification [78.120927891455]
最先端のブレイン・トゥ・テキストシステムは、ニューラルネットワークを使用して脳信号から直接言語を復号することに成功した。
本稿では,自然読解課題における語彙的脳波(EEG)-テキスト列列列復号化とゼロショット文感性分類に問題を拡張する。
脳波-テキストデコーディングで40.1%のBLEU-1スコア、ゼロショット脳波に基づく3次感情分類で55.6%のF1スコアを達成し、教師付きベースラインを著しく上回る結果となった。
論文 参考訳(メタデータ) (2021-12-05T21:57:22Z) - An Exploration of Self-Supervised Pretrained Representations for
End-to-End Speech Recognition [98.70304981174748]
本稿では,事前訓練された音声表現の一般応用,高度なエンドツーエンド自動音声認識(E2E-ASR)モデルに焦点をあてる。
いくつかの事前訓練された音声表現を選択し、E2E-ASRのための様々なオープンソースおよび公開コーパスの実験結果を示す。
論文 参考訳(メタデータ) (2021-10-09T15:06:09Z) - Subject Independent Emotion Recognition using EEG Signals Employing
Attention Driven Neural Networks [2.76240219662896]
主観非依存の感情認識が可能な新しいディープラーニングフレームワークを提案する。
タスクを実行するために、アテンションフレームワークを備えた畳み込みニューラルネットワーク(CNN)を提示する。
提案手法は、公開データセットを使用して検証されている。
論文 参考訳(メタデータ) (2021-06-07T09:41:15Z) - Generalized Iris Presentation Attack Detection Algorithm under
Cross-Database Settings [63.90855798947425]
プレゼンテーションアタックは、バイオメトリックなモダリティの大部分に大きな課題をもたらす。
本稿では,汎用的な深層学習に基づくプレゼンテーション攻撃検出ネットワークであるMVANetを提案する。
これはハイブリッドアルゴリズムの単純さと成功、あるいは複数の検出ネットワークの融合にインスパイアされている。
論文 参考訳(メタデータ) (2020-10-25T22:42:27Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。