論文の概要: Adaptive Progressive Attention Graph Neural Network for EEG Emotion Recognition
- arxiv url: http://arxiv.org/abs/2501.14246v1
- Date: Fri, 24 Jan 2025 05:14:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:55:54.799426
- Title: Adaptive Progressive Attention Graph Neural Network for EEG Emotion Recognition
- Title(参考訳): 脳波感情認識のための適応進行注意グラフニューラルネットワーク
- Authors: Tianzhi Feng, Chennan Wu, Yi Niu, Fu Li, Boxun Fu, Zhifu Zhao, Xiaotian Wang, Guangming Shi,
- Abstract要約: 本稿では、感情処理中の脳領域間の空間的関係を捉えるための適応進行注意グラフニューラルネットワーク(APAGNN)を提案する。
APAGNNは脳のトポロジーを段階的に分析する専門の専門家を3人雇っている。
提案手法は,脳波の感情認識性能を高め,ベースライン法よりも優れた結果を得る。
- 参考スコア(独自算出の注目度): 41.74069705400314
- License:
- Abstract: In recent years, numerous neuroscientific studies have shown that human emotions are closely linked to specific brain regions, with these regions exhibiting variability across individuals and emotional states. To fully leverage these neural patterns, we propose an Adaptive Progressive Attention Graph Neural Network (APAGNN), which dynamically captures the spatial relationships among brain regions during emotional processing. The APAGNN employs three specialized experts that progressively analyze brain topology. The first expert captures global brain patterns, the second focuses on region-specific features, and the third examines emotion-related channels. This hierarchical approach enables increasingly refined analysis of neural activity. Additionally, a weight generator integrates the outputs of all three experts, balancing their contributions to produce the final predictive label. Extensive experiments on three publicly available datasets (SEED, SEED-IV and MPED) demonstrate that the proposed method enhances EEG emotion recognition performance, achieving superior results compared to baseline methods.
- Abstract(参考訳): 近年、多くの神経科学的研究により、人間の感情は特定の脳領域と密接に関連していることが示されている。
これらのニューラルネットワークパターンを完全に活用するために、感情処理中の脳領域間の空間的関係を動的にキャプチャする適応進行注意グラフニューラルネットワーク(APAGNN)を提案する。
APAGNNは脳のトポロジーを段階的に分析する専門の専門家を3人雇っている。
第1のエキスパートはグローバルな脳のパターンを捉え、第2のエキスパートは地域特有の特徴に注目し、第3のエキスパートは感情関連チャンネルを調べます。
この階層的なアプローチは、神経活動のより洗練された分析を可能にする。
さらに、ウェイトジェネレータは3人の専門家全員の出力を統合することで、最終的な予測ラベルを生成するための貢献のバランスを取る。
一般に公開されている3つのデータセット(SEED、SEED-IV、MPED)の大規模な実験により、提案手法は脳波の感情認識性能を高め、ベースライン法よりも優れた結果が得られることを示した。
関連論文リスト
- MEEG and AT-DGNN: Improving EEG Emotion Recognition with Music Introducing and Graph-based Learning [3.840859750115109]
音楽誘発脳波(EEG)記録のマルチモーダルコレクションであるMEEGデータセットについて述べる。
本稿では,脳波に基づく感情認識のための新しいフレームワークである動的グラフニューラルネットワーク(AT-DGNN)を用いた注意に基づく時間学習について紹介する。
論文 参考訳(メタデータ) (2024-07-08T01:58:48Z) - Multi-modal Mood Reader: Pre-trained Model Empowers Cross-Subject Emotion Recognition [23.505616142198487]
我々は、クロスオブジェクト感情認識のための訓練済みモデルに基づくMultimodal Mood Readerを開発した。
このモデルは、大規模データセットの事前学習を通じて、脳波信号の普遍的な潜在表現を学習する。
公開データセットに関する大規模な実験は、クロスオブジェクト感情認識タスクにおけるMood Readerの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-28T14:31:11Z) - Dynamic GNNs for Precise Seizure Detection and Classification from EEG Data [6.401370088497331]
本稿では,脳波の位置と対応する脳領域のセマンティクスの相互作用を捉える動的グラフニューラルネットワーク(GNN)フレームワークであるNeuroGNNを紹介する。
実世界のデータを用いた実験により、NeuroGNNは既存の最先端モデルよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-05-08T21:36:49Z) - Graph Neural Networks in EEG-based Emotion Recognition: A Survey [7.967961714421288]
重要なトレンドは、脳波に基づく感情認識のためのグラフニューラルネットワーク(GNN)を開発することである。
情動脳波の脳領域依存性は、この領域のGNNと他の時系列領域のGNNを区別する生理的基盤を持つ。
脳波に基づく感情認識におけるGNN構築のための明確なガイダンスを提供するために,フレームワークの3段階から手法を分析し,分類する。
論文 参考訳(メタデータ) (2024-02-02T04:30:58Z) - A Knowledge-Driven Cross-view Contrastive Learning for EEG
Representation [48.85731427874065]
本稿では,限られたラベルを持つ脳波から効果的な表現を抽出する知識駆動型クロスビューコントラスト学習フレームワーク(KDC2)を提案する。
KDC2法は脳波信号の頭皮と神経のビューを生成し、脳活動の内部および外部の表現をシミュレートする。
ニューラル情報整合性理論に基づく事前のニューラル知識をモデル化することにより、提案手法は不変かつ相補的なニューラル知識を抽出し、複合表現を生成する。
論文 参考訳(メタデータ) (2023-09-21T08:53:51Z) - Progressive Graph Convolution Network for EEG Emotion Recognition [35.08010382523394]
神経科学領域の研究により、感情パターンと脳機能領域の関係が明らかになった。
脳波による感情認識では、きめ細かい感情の間には、きめ細かい感情の間により明確な境界が存在することが観察できる。
脳波の感情信号に特有の特徴を捉えるためのプログレッシブグラフ畳み込みネットワーク(PGCN)を提案する。
論文 参考訳(メタデータ) (2021-12-14T03:30:13Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。