論文の概要: MEEG and AT-DGNN: Advancing EEG Emotion Recognition with Music and Graph Learning
- arxiv url: http://arxiv.org/abs/2407.05550v1
- Date: Mon, 8 Jul 2024 01:58:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 17:19:52.482805
- Title: MEEG and AT-DGNN: Advancing EEG Emotion Recognition with Music and Graph Learning
- Title(参考訳): MEEGとAT-DGNN:音楽とグラフ学習による脳波感情認識の促進
- Authors: Minghao Xiao, Zhengxi Zhu, Wenyu Wang, Meixia Qu,
- Abstract要約: 本稿では,MEEGデータセット,マルチモーダル音楽誘発脳波(EEG)データセット,および脳波に基づく感情認識のための新しい枠組みを紹介する。
MEEGデータセットは、音楽に対する幅広い感情的な反応をキャプチャし、音楽の文脈におけるパターンの詳細な分析を可能にする。
AT-DGNNは、注意に基づく時間学習者と動的グラフニューラルネットワーク(DGNN)を組み合わせて、EEGデータの局所グラフとグローバルグラフのダイナミクスを正確にモデル化する。
- 参考スコア(独自算出の注目度): 5.766036473197785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in neuroscience have elucidated the crucial role of coordinated brain region activities during cognitive tasks. To explore the complexity, we introduce the MEEG dataset, a comprehensive multi-modal music-induced electroencephalogram (EEG) dataset and the Attention-based Temporal Learner with Dynamic Graph Neural Network (AT-DGNN), a novel framework for EEG-based emotion recognition. The MEEG dataset captures a wide range of emotional responses to music, enabling an in-depth analysis of brainwave patterns in musical contexts. The AT-DGNN combines an attention-based temporal learner with a dynamic graph neural network (DGNN) to accurately model the local and global graph dynamics of EEG data across varying brain network topology. Our evaluations show that AT-DGNN achieves superior performance, with an accuracy (ACC) of 83.06\% in arousal and 85.31\% in valence, outperforming state-of-the-art (SOTA) methods on the MEEG dataset. Comparative analyses with traditional datasets like DEAP highlight the effectiveness of our approach and underscore the potential of music as a powerful medium for emotion induction. This study not only advances our understanding of the brain emotional processing, but also enhances the accuracy of emotion recognition technologies in brain-computer interfaces (BCI), leveraging both graph-based learning and the emotional impact of music. The source code and dataset are available at \textit{https://github.com/xmh1011/AT-DGNN}.
- Abstract(参考訳): 近年の神経科学の進歩は、認知タスクにおける協調脳領域の活動の重要な役割を解明している。
そこで我々は,脳波に基づく感情認識のための新しいフレームワークであるダイナミックグラフニューラルネットワーク(AT-DGNN)を用いた多モード音楽誘発脳波(EEG)データセットであるMEEGデータセットと,注意に基づくテンポラルラーナーを導入する。
MEEGデータセットは、音楽に対する幅広い感情的な反応をキャプチャし、音楽の文脈における脳波パターンの詳細な分析を可能にする。
AT-DGNNは、注意に基づく時間学習者と動的グラフニューラルネットワーク(DGNN)を組み合わせて、様々な脳ネットワークトポロジにわたる脳波データの局所的およびグローバルなグラフダイナミクスを正確にモデル化する。
評価の結果,AT-DGNNの精度は83.06\%,原子価85.31\%であり,MEEGデータセット上でのSOTA法よりも優れていた。
DEAPのような従来のデータセットとの比較分析は、我々のアプローチの有効性を強調し、感情誘導の強力な媒体としての音楽の可能性を強調している。
この研究は、脳の感情処理の理解を深めるだけでなく、脳-コンピュータインタフェース(BCI)における感情認識技術の精度を高め、グラフベースの学習と音楽の感情への影響を両立させる。
ソースコードとデータセットは、textit{https://github.com/xmh1011/AT-DGNN}で入手できる。
関連論文リスト
- Decoding Human Emotions: Analyzing Multi-Channel EEG Data using LSTM Networks [0.0]
本研究では、Long Short-Term Memory (LSTM) ネットワークを用いて脳波信号を解析することにより、感情状態分類の予測精度を向上することを目的とする。
DEAPとして知られる多チャンネル脳波記録の一般的なデータセットを用いて、LSTMネットワークの特性を活用して、脳波信号データ内の時間的依存関係を処理する。
感情認識モデルの能力は, それぞれ89.89%, 90.33%, 90.70%, 90.54%であった。
論文 参考訳(メタデータ) (2024-08-19T18:10:47Z) - Dynamic GNNs for Precise Seizure Detection and Classification from EEG Data [6.401370088497331]
本稿では,脳波の位置と対応する脳領域のセマンティクスの相互作用を捉える動的グラフニューラルネットワーク(GNN)フレームワークであるNeuroGNNを紹介する。
実世界のデータを用いた実験により、NeuroGNNは既存の最先端モデルよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-05-08T21:36:49Z) - Graph Convolutional Network with Connectivity Uncertainty for EEG-based
Emotion Recognition [20.655367200006076]
本研究では,脳波信号の空間依存性と時間スペクトルの相対性を表す分布に基づく不確実性手法を提案する。
グラフ混合手法は、遅延接続エッジを強化し、ノイズラベル問題を緩和するために用いられる。
感情認識タスクにおいて、SEEDとSEEDIVという2つの広く使われているデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2023-10-22T03:47:11Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - A Hybrid End-to-End Spatio-Temporal Attention Neural Network with
Graph-Smooth Signals for EEG Emotion Recognition [1.6328866317851187]
本稿では,ネットワーク・テンポラルエンコーディングと繰り返しアテンションブロックのハイブリッド構造を用いて,解釈可能な表現を取得するディープニューラルネットワークを提案する。
提案したアーキテクチャは、公開されているDEAPデータセット上での感情分類の最先端結果を上回ることを実証する。
論文 参考訳(メタデータ) (2023-07-06T15:35:14Z) - Inter Subject Emotion Recognition Using Spatio-Temporal Features From
EEG Signal [4.316570025748204]
この研究は、脳波信号から感情を独立して分類する、簡単に実装できる感情認識モデルに関するものである。
このモデルは、感情を分類するために、CNNの正規層、深さ層、分離可能な畳み込み層の組み合わせである。
精度は73.04%だった。
論文 参考訳(メタデータ) (2023-05-27T07:43:19Z) - DynDepNet: Learning Time-Varying Dependency Structures from fMRI Data
via Dynamic Graph Structure Learning [58.94034282469377]
下流予測タスクによって誘導されるfMRIデータの最適時間変化依存性構造を学習する新しい手法であるDynDepNetを提案する。
実世界のfMRIデータセットの実験は、性別分類のタスクにおいて、DynDepNetが最先端の結果を達成することを実証している。
論文 参考訳(メタデータ) (2022-09-27T16:32:11Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。