論文の概要: EEG2Vec: Learning Affective EEG Representations via Variational
Autoencoders
- arxiv url: http://arxiv.org/abs/2207.08002v1
- Date: Sat, 16 Jul 2022 19:25:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 15:43:44.916710
- Title: EEG2Vec: Learning Affective EEG Representations via Variational
Autoencoders
- Title(参考訳): EEG2Vec: 変分オートエンコーダによる影響のある脳波表現の学習
- Authors: David Bethge, Philipp Hallgarten, Tobias Grosse-Puppendahl, Mohamed
Kari, Lewis L. Chuang, Ozan \"Ozdenizci, Albrecht Schmidt
- Abstract要約: 我々は、感情的な刺激に反応して、潜在ベクトル空間におけるニューラルデータを表現することが、両方の感情状態を予測するのに役立つかどうかを考察する。
脳波データから生成的識別的表現を学習するための条件付き変分オートエンコーダベースのフレームワークであるEEG2Vecを提案する。
- 参考スコア(独自算出の注目度): 27.3162026528455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a growing need for sparse representational formats of human
affective states that can be utilized in scenarios with limited computational
memory resources. We explore whether representing neural data, in response to
emotional stimuli, in a latent vector space can serve to both predict emotional
states as well as generate synthetic EEG data that are participant- and/or
emotion-specific. We propose a conditional variational autoencoder based
framework, EEG2Vec, to learn generative-discriminative representations from EEG
data. Experimental results on affective EEG recording datasets demonstrate that
our model is suitable for unsupervised EEG modeling, classification of three
distinct emotion categories (positive, neutral, negative) based on the latent
representation achieves a robust performance of 68.49%, and generated synthetic
EEG sequences resemble real EEG data inputs to particularly reconstruct
low-frequency signal components. Our work advances areas where affective EEG
representations can be useful in e.g., generating artificial (labeled) training
data or alleviating manual feature extraction, and provide efficiency for
memory constrained edge computing applications.
- Abstract(参考訳): 計算メモリリソースが限られているシナリオで使用できる、人間の感情状態のスパース表現形式の必要性が高まっている。
潜在ベクトル空間における感情刺激に応答して、神経データ表現が感情状態の予測と、参加者および/または感情特異的な合成脳波データを生成するのに役立つかどうかを検討する。
脳波データから生成的識別的表現を学習するための条件付き変分オートエンコーダベースのフレームワークEEG2Vecを提案する。
情動脳波記録データセットを用いた実験の結果,本モデルは教師なし脳波モデリングに適しており,潜在表現に基づく3つの異なる感情カテゴリー(正・中・負)の分類は68.49%のロバスト性能を達成し,生成された合成脳波配列は実際の脳波データ入力に類似し,特に低周波信号成分を再構成する。
本研究は,人工的(ラベル付き)トレーニングデータの生成や手作業による特徴抽出の緩和など,感情的脳波表現が有用な領域を開拓し,メモリ制約のあるエッジコンピューティングアプリケーションに対して効率性を提供する。
関連論文リスト
- Joint Contrastive Learning with Feature Alignment for Cross-Corpus EEG-based Emotion Recognition [2.1645626994550664]
我々は,クロスコーパス脳波に基づく感情認識に対処するために,特徴アライメントを用いた新しいコントラスト学習フレームワークを提案する。
事前学習段階では、脳波信号の一般化可能な時間周波数表現を特徴付けるために、共同領域コントラスト学習戦略を導入する。
微調整の段階では、JCFAは脳電極間の構造的接続を考慮した下流タスクと共に洗練される。
論文 参考訳(メタデータ) (2024-04-15T08:21:17Z) - CSLP-AE: A Contrastive Split-Latent Permutation Autoencoder Framework
for Zero-Shot Electroencephalography Signal Conversion [49.1574468325115]
脳波分析の鍵となる目的は、基礎となる神経活動(コンテンツ)を抽出し、個体の変動(スタイル)を考慮することである。
近年の音声変換技術の発展に触発されて,脳波変換を直接最適化するCSLP-AEフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-13T22:46:43Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - EEG-based Emotion Style Transfer Network for Cross-dataset Emotion
Recognition [45.26847258736848]
本稿では,脳波に基づく感情スタイル伝達ネットワーク(E2STN)を提案する。
E2STNは、クロスデータセットのEEG感情認識タスクにおける最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2023-08-09T16:54:40Z) - A Hybrid End-to-End Spatio-Temporal Attention Neural Network with
Graph-Smooth Signals for EEG Emotion Recognition [1.6328866317851187]
本稿では,ネットワーク・テンポラルエンコーディングと繰り返しアテンションブロックのハイブリッド構造を用いて,解釈可能な表現を取得するディープニューラルネットワークを提案する。
提案したアーキテクチャは、公開されているDEAPデータセット上での感情分類の最先端結果を上回ることを実証する。
論文 参考訳(メタデータ) (2023-07-06T15:35:14Z) - Inter Subject Emotion Recognition Using Spatio-Temporal Features From
EEG Signal [4.316570025748204]
この研究は、脳波信号から感情を独立して分類する、簡単に実装できる感情認識モデルに関するものである。
このモデルは、感情を分類するために、CNNの正規層、深さ層、分離可能な畳み込み層の組み合わせである。
精度は73.04%だった。
論文 参考訳(メタデータ) (2023-05-27T07:43:19Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - GANSER: A Self-supervised Data Augmentation Framework for EEG-based
Emotion Recognition [15.812231441367022]
本稿では,GANSER(Generative Adversarial Network-based Self-supervised Data Augmentation)という新しいデータ拡張フレームワークを提案する。
脳波に基づく感情認識のための自己教師型学習と対人訓練を併用する最初の試みとして、提案フレームワークは高品質な模擬脳波サンプルを生成することができる。
変換関数は、脳波信号の一部を隠蔽し、生成元に残りの部分に基づいて潜在的な脳波信号を合成させる。
論文 参考訳(メタデータ) (2021-09-07T14:42:55Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。