論文の概要: MEEG and AT-DGNN: Improving EEG Emotion Recognition with Music Introducing and Graph-based Learning
- arxiv url: http://arxiv.org/abs/2407.05550v3
- Date: Wed, 14 Aug 2024 14:06:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 17:26:11.338879
- Title: MEEG and AT-DGNN: Improving EEG Emotion Recognition with Music Introducing and Graph-based Learning
- Title(参考訳): MEEGとAT-DGNN:音楽導入とグラフ学習による脳波認識の改善
- Authors: Minghao Xiao, Zhengxi Zhu, Bin Jiang, Meixia Qu, Wenyu Wang,
- Abstract要約: 音楽誘発脳波(EEG)記録のマルチモーダルコレクションであるMEEGデータセットについて述べる。
本稿では,脳波に基づく感情認識のための新しいフレームワークである動的グラフニューラルネットワーク(AT-DGNN)を用いた注意に基づく時間学習について紹介する。
- 参考スコア(独自算出の注目度): 8.561375293735733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the MEEG dataset, a multi-modal collection of music-induced electroencephalogram (EEG) recordings designed to capture emotional responses to various musical stimuli across different valence and arousal levels. This public dataset facilitates an in-depth examination of brainwave patterns within musical contexts, providing a robust foundation for studying brain network topology during emotional processing. Leveraging the MEEG dataset, we introduce the Attention-based Temporal Learner with Dynamic Graph Neural Network (AT-DGNN), a novel framework for EEG-based emotion recognition. This model combines an attention mechanism with a dynamic graph neural network (DGNN) to capture intricate EEG dynamics. The AT-DGNN achieves state-of-the-art (SOTA) performance with an accuracy of 83.74% in arousal recognition and 86.01% in valence recognition, outperforming existing SOTA methods. Comparative analysis with traditional datasets, such as DEAP, further validates the model's effectiveness and underscores the potency of music as an emotional stimulus. This study advances graph-based learning methodology in brain-computer interfaces (BCI), significantly improving the accuracy of EEG-based emotion recognition. The MEEG dataset and source code are publicly available at https://github.com/xmh1011/AT-DGNN.
- Abstract(参考訳): MEEGデータセットは音楽誘発脳波 (EEG) 記録のマルチモーダルな収集であり, 様々な音楽刺激に対する感情的反応を, 様々な原子価と覚醒レベルにわたって捉えたものである。
このパブリックデータセットは、音楽的文脈における脳波パターンの詳細な調査を促進し、感情的な処理中に脳ネットワークトポロジーを研究するための堅牢な基盤を提供する。
MEEGデータセットを活用することで、脳波に基づく感情認識の新しいフレームワークである動的グラフニューラルネットワーク(AT-DGNN)による注意に基づくテンポラルラーナーを導入する。
このモデルは、注意機構と動的グラフニューラルネットワーク(DGNN)を組み合わせて、複雑な脳波のダイナミクスを捉える。
AT-DGNNは、83.74%の刺激認識と86.01%の精度で最先端(SOTA)性能を達成し、既存のSOTA法より優れている。
DEAPのような従来のデータセットとの比較分析は、モデルの有効性をさらに検証し、感情的な刺激として音楽の有効性を強調している。
本研究では,脳-コンピュータインタフェース(BCI)におけるグラフベースの学習手法を進歩させ,脳波による感情認識の精度を大幅に向上させる。
MEEGデータセットとソースコードはhttps://github.com/xmh1011/AT-DGNNで公開されている。
関連論文リスト
- Multi-modal Mood Reader: Pre-trained Model Empowers Cross-Subject Emotion Recognition [23.505616142198487]
我々は、クロスオブジェクト感情認識のための訓練済みモデルに基づくMultimodal Mood Readerを開発した。
このモデルは、大規模データセットの事前学習を通じて、脳波信号の普遍的な潜在表現を学習する。
公開データセットに関する大規模な実験は、クロスオブジェクト感情認識タスクにおけるMood Readerの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-28T14:31:11Z) - Dynamic GNNs for Precise Seizure Detection and Classification from EEG Data [6.401370088497331]
本稿では,脳波の位置と対応する脳領域のセマンティクスの相互作用を捉える動的グラフニューラルネットワーク(GNN)フレームワークであるNeuroGNNを紹介する。
実世界のデータを用いた実験により、NeuroGNNは既存の最先端モデルよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-05-08T21:36:49Z) - Graph Neural Networks in EEG-based Emotion Recognition: A Survey [8.727911746686848]
重要なトレンドは、脳波に基づく感情認識のためのグラフニューラルネットワーク(GNN)を開発することである。
情動脳波の脳領域依存性は、この領域のGNNと他の時系列領域のGNNを区別する生理的基盤を持つ。
脳波に基づく感情認識におけるGNN構築のための明確なガイダンスを提供するために,フレームワークの3段階から手法を分析し,分類する。
論文 参考訳(メタデータ) (2024-02-02T04:30:58Z) - A Hybrid End-to-End Spatio-Temporal Attention Neural Network with
Graph-Smooth Signals for EEG Emotion Recognition [1.6328866317851187]
本稿では,ネットワーク・テンポラルエンコーディングと繰り返しアテンションブロックのハイブリッド構造を用いて,解釈可能な表現を取得するディープニューラルネットワークを提案する。
提案したアーキテクチャは、公開されているDEAPデータセット上での感情分類の最先端結果を上回ることを実証する。
論文 参考訳(メタデータ) (2023-07-06T15:35:14Z) - DBGDGM: Dynamic Brain Graph Deep Generative Model [63.23390833353625]
グラフは機能的磁気画像(fMRI)データから得られる脳活動の自然な表現である。
機能的接続ネットワーク(FCN)として知られる解剖学的脳領域のクラスターは、脳の機能や機能不全を理解するのに有用なバイオマーカーとなる時間的関係を符号化することが知られている。
しかし、以前の研究は脳の時間的ダイナミクスを無視し、静的グラフに焦点を当てていた。
本稿では,脳の領域を時間的に進化するコミュニティにクラスタリングし,非教師なしノードの動的埋め込みを学習する動的脳グラフ深部生成モデル(DBGDGM)を提案する。
論文 参考訳(メタデータ) (2023-01-26T20:45:30Z) - fMRI from EEG is only Deep Learning away: the use of interpretable DL to
unravel EEG-fMRI relationships [68.8204255655161]
多チャンネル脳波データからいくつかの皮質下領域の活性を回復するための解釈可能な領域基底解を提案する。
我々は,皮質下核の血行動態信号の頭皮脳波予測の空間的・時間的パターンを復元する。
論文 参考訳(メタデータ) (2022-10-23T15:11:37Z) - DynDepNet: Learning Time-Varying Dependency Structures from fMRI Data
via Dynamic Graph Structure Learning [58.94034282469377]
下流予測タスクによって誘導されるfMRIデータの最適時間変化依存性構造を学習する新しい手法であるDynDepNetを提案する。
実世界のfMRIデータセットの実験は、性別分類のタスクにおいて、DynDepNetが最先端の結果を達成することを実証している。
論文 参考訳(メタデータ) (2022-09-27T16:32:11Z) - Enhancing Affective Representations of Music-Induced EEG through
Multimodal Supervision and latent Domain Adaptation [34.726185927120355]
脳波の重み付けとして音楽信号を用い,その意味的対応を共通の表現空間に投影することを目的としている。
我々は、LSTMに基づくアテンションモデルと、音楽タギングのための事前訓練されたモデルを組み合わせたバイモーダル・フレームワークと、その2つのモードの分布を整列するリバース・ドメイン・ディミネータを併用して、バイモーダル・フレームワークを利用する。
脳波入力クエリに関連音楽サンプルを提供することにより、モダリティのいずれからも、間接的に、教師付き予測を行うことで、感情認識に利用することができる。
論文 参考訳(メタデータ) (2022-02-20T07:32:12Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。