論文の概要: MEEG and AT-DGNN: Improving EEG Emotion Recognition with Music Introducing and Graph-based Learning
- arxiv url: http://arxiv.org/abs/2407.05550v4
- Date: Mon, 18 Nov 2024 03:55:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:28:13.761773
- Title: MEEG and AT-DGNN: Improving EEG Emotion Recognition with Music Introducing and Graph-based Learning
- Title(参考訳): MEEGとAT-DGNN:音楽導入とグラフ学習による脳波認識の改善
- Authors: Minghao Xiao, Zhengxi Zhu, Kang Xie, Bin Jiang,
- Abstract要約: 音楽誘発脳波(EEG)記録のマルチモーダルコレクションであるMEEGデータセットについて述べる。
本稿では,脳波に基づく感情認識のための新しいフレームワークである動的グラフニューラルネットワーク(AT-DGNN)を用いた注意に基づく時間学習について紹介する。
- 参考スコア(独自算出の注目度): 3.840859750115109
- License:
- Abstract: We present the MEEG dataset, a multi-modal collection of music-induced electroencephalogram (EEG) recordings designed to capture emotional responses to various musical stimuli across different valence and arousal levels. This public dataset facilitates an in-depth examination of brainwave patterns within musical contexts, providing a robust foundation for studying brain network topology during emotional processing. Leveraging the MEEG dataset, we introduce the Attention-based Temporal Learner with Dynamic Graph Neural Network (AT-DGNN), a novel framework for EEG-based emotion recognition. This model combines an attention mechanism with a dynamic graph neural network (DGNN) to capture intricate EEG dynamics. The AT-DGNN achieves state-of-the-art (SOTA) performance with an accuracy of 83.74% in arousal recognition and 86.01% in valence recognition, outperforming existing SOTA methods. Comparative analysis with traditional datasets, such as DEAP, further validates the model's effectiveness and underscores the potency of music as an emotional stimulus. This study advances graph-based learning methodology in brain-computer interfaces (BCI), significantly improving the accuracy of EEG-based emotion recognition. The MEEG dataset and source code are publicly available at https://github.com/xmh1011/AT-DGNN.
- Abstract(参考訳): MEEGデータセットは音楽誘発脳波 (EEG) 記録のマルチモーダルな収集であり, 様々な音楽刺激に対する感情的反応を, 様々な原子価と覚醒レベルにわたって捉えたものである。
このパブリックデータセットは、音楽的文脈における脳波パターンの詳細な調査を促進し、感情的な処理中に脳ネットワークトポロジーを研究するための堅牢な基盤を提供する。
MEEGデータセットを活用することで、脳波に基づく感情認識の新しいフレームワークである動的グラフニューラルネットワーク(AT-DGNN)による注意に基づくテンポラルラーナーを導入する。
このモデルは、注意機構と動的グラフニューラルネットワーク(DGNN)を組み合わせて、複雑な脳波のダイナミクスを捉える。
AT-DGNNは、83.74%の刺激認識と86.01%の精度で最先端(SOTA)性能を達成し、既存のSOTA法より優れている。
DEAPのような従来のデータセットとの比較分析は、モデルの有効性をさらに検証し、感情的な刺激として音楽の有効性を強調している。
本研究では,脳-コンピュータインタフェース(BCI)におけるグラフベースの学習手法を進歩させ,脳波による感情認識の精度を大幅に向上させる。
MEEGデータセットとソースコードはhttps://github.com/xmh1011/AT-DGNNで公開されている。
関連論文リスト
- Decoding Human Emotions: Analyzing Multi-Channel EEG Data using LSTM Networks [0.0]
本研究では、Long Short-Term Memory (LSTM) ネットワークを用いて脳波信号を解析することにより、感情状態分類の予測精度を向上することを目的とする。
DEAPとして知られる多チャンネル脳波記録の一般的なデータセットを用いて、LSTMネットワークの特性を活用して、脳波信号データ内の時間的依存関係を処理する。
感情認識モデルの能力は, それぞれ89.89%, 90.33%, 90.70%, 90.54%であった。
論文 参考訳(メタデータ) (2024-08-19T18:10:47Z) - Dynamic GNNs for Precise Seizure Detection and Classification from EEG Data [6.401370088497331]
本稿では,脳波の位置と対応する脳領域のセマンティクスの相互作用を捉える動的グラフニューラルネットワーク(GNN)フレームワークであるNeuroGNNを紹介する。
実世界のデータを用いた実験により、NeuroGNNは既存の最先端モデルよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-05-08T21:36:49Z) - Graph Convolutional Network with Connectivity Uncertainty for EEG-based
Emotion Recognition [20.655367200006076]
本研究では,脳波信号の空間依存性と時間スペクトルの相対性を表す分布に基づく不確実性手法を提案する。
グラフ混合手法は、遅延接続エッジを強化し、ノイズラベル問題を緩和するために用いられる。
感情認識タスクにおいて、SEEDとSEEDIVという2つの広く使われているデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2023-10-22T03:47:11Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - A Hybrid End-to-End Spatio-Temporal Attention Neural Network with
Graph-Smooth Signals for EEG Emotion Recognition [1.6328866317851187]
本稿では,ネットワーク・テンポラルエンコーディングと繰り返しアテンションブロックのハイブリッド構造を用いて,解釈可能な表現を取得するディープニューラルネットワークを提案する。
提案したアーキテクチャは、公開されているDEAPデータセット上での感情分類の最先端結果を上回ることを実証する。
論文 参考訳(メタデータ) (2023-07-06T15:35:14Z) - Inter Subject Emotion Recognition Using Spatio-Temporal Features From
EEG Signal [4.316570025748204]
この研究は、脳波信号から感情を独立して分類する、簡単に実装できる感情認識モデルに関するものである。
このモデルは、感情を分類するために、CNNの正規層、深さ層、分離可能な畳み込み層の組み合わせである。
精度は73.04%だった。
論文 参考訳(メタデータ) (2023-05-27T07:43:19Z) - DynDepNet: Learning Time-Varying Dependency Structures from fMRI Data
via Dynamic Graph Structure Learning [58.94034282469377]
下流予測タスクによって誘導されるfMRIデータの最適時間変化依存性構造を学習する新しい手法であるDynDepNetを提案する。
実世界のfMRIデータセットの実験は、性別分類のタスクにおいて、DynDepNetが最先端の結果を達成することを実証している。
論文 参考訳(メタデータ) (2022-09-27T16:32:11Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。