論文の概要: MEEG and AT-DGNN: Improving EEG Emotion Recognition with Music Introducing and Graph-based Learning
- arxiv url: http://arxiv.org/abs/2407.05550v2
- Date: Sat, 10 Aug 2024 16:50:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 20:43:18.578128
- Title: MEEG and AT-DGNN: Improving EEG Emotion Recognition with Music Introducing and Graph-based Learning
- Title(参考訳): MEEGとAT-DGNN:音楽導入とグラフ学習による脳波認識の改善
- Authors: Minghao Xiao, Zhengxi Zhu, Bin Jiang, Meixia Qu, Wenyu Wang,
- Abstract要約: 本研究では、音楽誘発脳波(EEG)記録のマルチモーダルコンパイルであるMEEGデータセットを構築し、既存の脳波データセットを拡張した。
本稿では,脳波の感情認識のための新しいフレームワークである動的グラフニューラルネットワーク(AT-DGNN)を用いた注意に基づく時間学習について紹介する。
- 参考スコア(独自算出の注目度): 8.561375293735733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neuropsychological research highlights the essential role of coordinated activities across brain regions during cognitive tasks. This study expands the existing EEG datasets by constructing the MEEG dataset, a multi-modal compilation of music-induced electroencephalogram (EEG) recordings, and further investigates the brain network topology during emotional responses to music. The MEEG dataset, capturing emotional responses to various musical stimuli across different valence and arousal levels, enables an in-depth analysis of brainwave patterns within musical contexts. We introduce the Attention-based Temporal Learner with Dynamic Graph Neural Network (AT-DGNN), a novel framework for EEG emotion recognition. By integrating an attention mechanism with a dynamic graph neural network (DGNN), the AT-DGNN model captures complex local and global EEG dynamics, demonstrating superior performance with accuracy of 83.74% in arousal and 86.01% in valence, outperforming current state-of-the-art (SOTA) methods. Comparative analyses with traditional datasets like DEAP underscore our model's effectiveness, highlighting the potential of music as a potent emotional stimulus. This study advances graph-based learning techniques in brain-computer interfaces (BCI), significantly enhancing the precision of EEG-based emotion recognition and deepening our understanding of cognitive functions in various brain regions. The source code and dataset are accessible at https://github.com/xmh1011/AT-DGNN.
- Abstract(参考訳): 神経心理学の研究は、認知タスク中の脳領域における協調活動の不可欠な役割を強調している。
本研究は、音楽誘発脳波(EEG)記録のマルチモーダルコンパイルであるMEEGデータセットの構築により、既存の脳波データセットを拡張し、さらに、音楽に対する感情応答中の脳ネットワークトポロジーについて検討する。
MEEGデータセットは、様々な原子価と覚醒レベルにわたる様々な音楽刺激に対する感情的な反応を捉え、音楽的文脈における脳波パターンの詳細な分析を可能にする。
本稿では,脳波の感情認識のための新しいフレームワークである動的グラフニューラルネットワーク(AT-DGNN)を用いた注意に基づく時間学習について紹介する。
注意機構を動的グラフニューラルネットワーク(DGNN)と統合することにより、AT-DGNNモデルは複雑な局所脳波とグローバル脳波のダイナミクスを捉え、83.74%の覚醒精度と86.01%の原子価で優れた性能を示す。
DEAPのような従来のデータセットとの比較分析は、我々のモデルの有効性を強調し、強力な感情刺激としての音楽の可能性を強調している。
本研究は,脳-コンピュータインタフェース(BCI)におけるグラフベースの学習手法を進歩させ,脳波に基づく感情認識の精度を大幅に向上させ,脳の各領域における認知機能の理解を深める。
ソースコードとデータセットはhttps://github.com/xmh1011/AT-DGNNでアクセスできる。
関連論文リスト
- Decoding Human Emotions: Analyzing Multi-Channel EEG Data using LSTM Networks [0.0]
本研究では、Long Short-Term Memory (LSTM) ネットワークを用いて脳波信号を解析することにより、感情状態分類の予測精度を向上することを目的とする。
DEAPとして知られる多チャンネル脳波記録の一般的なデータセットを用いて、LSTMネットワークの特性を活用して、脳波信号データ内の時間的依存関係を処理する。
感情認識モデルの能力は, それぞれ89.89%, 90.33%, 90.70%, 90.54%であった。
論文 参考訳(メタデータ) (2024-08-19T18:10:47Z) - Dynamic GNNs for Precise Seizure Detection and Classification from EEG Data [6.401370088497331]
本稿では,脳波の位置と対応する脳領域のセマンティクスの相互作用を捉える動的グラフニューラルネットワーク(GNN)フレームワークであるNeuroGNNを紹介する。
実世界のデータを用いた実験により、NeuroGNNは既存の最先端モデルよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-05-08T21:36:49Z) - Graph Convolutional Network with Connectivity Uncertainty for EEG-based
Emotion Recognition [20.655367200006076]
本研究では,脳波信号の空間依存性と時間スペクトルの相対性を表す分布に基づく不確実性手法を提案する。
グラフ混合手法は、遅延接続エッジを強化し、ノイズラベル問題を緩和するために用いられる。
感情認識タスクにおいて、SEEDとSEEDIVという2つの広く使われているデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2023-10-22T03:47:11Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - A Hybrid End-to-End Spatio-Temporal Attention Neural Network with
Graph-Smooth Signals for EEG Emotion Recognition [1.6328866317851187]
本稿では,ネットワーク・テンポラルエンコーディングと繰り返しアテンションブロックのハイブリッド構造を用いて,解釈可能な表現を取得するディープニューラルネットワークを提案する。
提案したアーキテクチャは、公開されているDEAPデータセット上での感情分類の最先端結果を上回ることを実証する。
論文 参考訳(メタデータ) (2023-07-06T15:35:14Z) - Inter Subject Emotion Recognition Using Spatio-Temporal Features From
EEG Signal [4.316570025748204]
この研究は、脳波信号から感情を独立して分類する、簡単に実装できる感情認識モデルに関するものである。
このモデルは、感情を分類するために、CNNの正規層、深さ層、分離可能な畳み込み層の組み合わせである。
精度は73.04%だった。
論文 参考訳(メタデータ) (2023-05-27T07:43:19Z) - DynDepNet: Learning Time-Varying Dependency Structures from fMRI Data
via Dynamic Graph Structure Learning [58.94034282469377]
下流予測タスクによって誘導されるfMRIデータの最適時間変化依存性構造を学習する新しい手法であるDynDepNetを提案する。
実世界のfMRIデータセットの実験は、性別分類のタスクにおいて、DynDepNetが最先端の結果を達成することを実証している。
論文 参考訳(メタデータ) (2022-09-27T16:32:11Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。