論文の概要: DEAP DIVE: Dataset Investigation with Vision transformers for EEG evaluation
- arxiv url: http://arxiv.org/abs/2510.00725v1
- Date: Wed, 01 Oct 2025 10:07:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.502589
- Title: DEAP DIVE: Dataset Investigation with Vision transformers for EEG evaluation
- Title(参考訳): DEAP DIVE:脳波評価のためのビジョントランスを用いたデータセット調査
- Authors: Annemarie Hoffsommer, Helen Schneider, Svetlana Pavlitska, J. Marius Zöllner,
- Abstract要約: 脳信号から感情を正確に予測することは、メンタルヘルスの改善、人間とコンピュータの相互作用、感情コンピューティングといった目標を達成する可能性がある。
本研究は,低コストの脳波デバイスを用いて,脳波チャネルのサブセットを用いて十分な正確な感情予測を行う方法について検討する。
- 参考スコア(独自算出の注目度): 11.8905212108669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately predicting emotions from brain signals has the potential to achieve goals such as improving mental health, human-computer interaction, and affective computing. Emotion prediction through neural signals offers a promising alternative to traditional methods, such as self-assessment and facial expression analysis, which can be subjective or ambiguous. Measurements of the brain activity via electroencephalogram (EEG) provides a more direct and unbiased data source. However, conducting a full EEG is a complex, resource-intensive process, leading to the rise of low-cost EEG devices with simplified measurement capabilities. This work examines how subsets of EEG channels from the DEAP dataset can be used for sufficiently accurate emotion prediction with low-cost EEG devices, rather than fully equipped EEG-measurements. Using Continuous Wavelet Transformation to convert EEG data into scaleograms, we trained a vision transformer (ViT) model for emotion classification. The model achieved over 91,57% accuracy in predicting 4 quadrants (high/low per arousal and valence) with only 12 measuring points (also referred to as channels). Our work shows clearly, that a significant reduction of input channels yields high results compared to state-of-the-art results of 96,9% with 32 channels. Training scripts to reproduce our code can be found here: https://gitlab.kit.edu/kit/aifb/ATKS/public/AutoSMiLeS/DEAP-DIVE.
- Abstract(参考訳): 脳信号から感情を正確に予測することは、メンタルヘルスの改善、人間とコンピュータの相互作用、感情コンピューティングといった目標を達成する可能性がある。
神経信号による感情予測は、主観的あるいは曖昧な自己評価や表情分析といった従来の方法に代わる有望な代替手段を提供する。
脳波(EEG)による脳活動の測定は、より直接的で偏りのないデータソースを提供する。
しかし、完全なEEGの実行は複雑でリソース集約的なプロセスであり、測定機能を単純化した低コストのEEGデバイスが台頭する。
本研究では,DEAPデータセットからの脳波チャネルのサブセットを,完全装備の脳波測定ではなく,低コストの脳波デバイスによる十分な正確な感情予測に利用できるかを検討する。
脳波データをスケールグラムに変換するために連続ウェーブレット変換を用いて、感情分類のための視覚変換器(ViT)モデルを訓練した。
このモデルは4つの四分儀(高/低/陽極/原子価)をわずか12点(チャネルとも呼ばれる)で予測すると91,57%の精度を達成した。
入力チャネルの大幅な減少は,32チャネルの96,9%の最先端結果と比較して高い結果をもたらすことが明らかとなった。
コードを再現するためのトレーニングスクリプトは、https://gitlab.kit.edu/kit/aifb/ATKS/public/AutoSMiLeS/DEAP-DIVEを参照してください。
関連論文リスト
- BrainOmni: A Brain Foundation Model for Unified EEG and MEG Signals [50.76802709706976]
異種脳波とMEG記録を対象とする脳基礎モデルBrain Omniを提案する。
多様なデータソースを統一するために、脳の活動を離散表現に定量化する最初のトークンであるBrainTokenizerを紹介します。
EEGの合計1,997時間、MEGデータの656時間は、事前トレーニングのために公開されているソースからキュレーションされ、標準化されている。
論文 参考訳(メタデータ) (2025-05-18T14:07:14Z) - Large Brain Model for Learning Generic Representations with Tremendous EEG Data in BCI [6.926908480247951]
大型脳モデル(LaBraM)と呼ばれる脳波の統一基盤モデルを提案する。
LaBraMは、EEG信号をEEGチャネルパッチにセグメント化することで、データセット間の学習を可能にする。
次に、マスクされたEEGチャネルパッチの元のニューラルコードを予測することにより、ニューラルトランスフォーマーを事前訓練する。
論文 参考訳(メタデータ) (2024-05-29T05:08:16Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - Unveiling Emotions from EEG: A GRU-Based Approach [2.580765958706854]
ゲーテッド・リカレント・ユニット(GRU)アルゴリズムは、感情状態を予測するために脳波信号が使えるかどうかをテストする。
我々の公開データセットは、幸せ、中立、ネガティブな感情を呼び起こす刺激にさらされた人々の脳波記録と同様に、中立なデータを休ませることから成り立っている。
論文 参考訳(メタデータ) (2023-07-20T11:04:46Z) - Optimized EEG based mood detection with signal processing and deep
neural networks for brain-computer interface [0.0]
本研究の目的は,脳波と被験者の気分との関係を識別するスマート意思決定モデルを確立することである。
健康な28人の被験者の脳波は同意を得て観測され、気分を研究・認識する試みがなされている。
これらの技術を用いて、96.01%の検出精度が得られた。
論文 参考訳(メタデータ) (2023-03-30T15:23:24Z) - EEG2Vec: Learning Affective EEG Representations via Variational
Autoencoders [27.3162026528455]
我々は、感情的な刺激に反応して、潜在ベクトル空間におけるニューラルデータを表現することが、両方の感情状態を予測するのに役立つかどうかを考察する。
脳波データから生成的識別的表現を学習するための条件付き変分オートエンコーダベースのフレームワークであるEEG2Vecを提案する。
論文 参考訳(メタデータ) (2022-07-16T19:25:29Z) - Task-oriented Self-supervised Learning for Anomaly Detection in
Electroencephalography [51.45515911920534]
タスク指向型自己教師型学習手法を提案する。
大きなカーネルを持つ特定の2つの分岐畳み込みニューラルネットワークを特徴抽出器として設計する。
効果的に設計され、訓練された特徴抽出器は、より優れた特徴表現を脳波から抽出できることが示されている。
論文 参考訳(メタデータ) (2022-07-04T13:15:08Z) - Data augmentation for learning predictive models on EEG: a systematic
comparison [79.84079335042456]
脳波(EEG)分類タスクの深層学習は、ここ数年急速に増加している。
EEG分類タスクのディープラーニングは、比較的小さなEEGデータセットによって制限されている。
データ拡張は、コンピュータビジョンや音声などのアプリケーションにまたがる最先端のパフォーマンスを得るために重要な要素となっている。
論文 参考訳(メタデータ) (2022-06-29T09:18:15Z) - GANSER: A Self-supervised Data Augmentation Framework for EEG-based
Emotion Recognition [15.812231441367022]
本稿では,GANSER(Generative Adversarial Network-based Self-supervised Data Augmentation)という新しいデータ拡張フレームワークを提案する。
脳波に基づく感情認識のための自己教師型学習と対人訓練を併用する最初の試みとして、提案フレームワークは高品質な模擬脳波サンプルを生成することができる。
変換関数は、脳波信号の一部を隠蔽し、生成元に残りの部分に基づいて潜在的な脳波信号を合成させる。
論文 参考訳(メタデータ) (2021-09-07T14:42:55Z) - EEG-Inception: An Accurate and Robust End-to-End Neural Network for
EEG-based Motor Imagery Classification [123.93460670568554]
本稿では,脳波に基づく運動画像(MI)分類のための新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
提案したCNNモデル、すなわちEEG-Inceptionは、Inception-Timeネットワークのバックボーン上に構築されている。
提案するネットワークは、生のEEG信号を入力とし、複雑なEEG信号前処理を必要としないため、エンドツーエンドの分類である。
論文 参考訳(メタデータ) (2021-01-24T19:03:10Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。