論文の概要: 4D Attention-based Neural Network for EEG Emotion Recognition
- arxiv url: http://arxiv.org/abs/2101.05484v1
- Date: Thu, 14 Jan 2021 07:41:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 00:49:04.629689
- Title: 4D Attention-based Neural Network for EEG Emotion Recognition
- Title(参考訳): 脳波認識のための4次元注意型ニューラルネットワーク
- Authors: Guowen Xiao, Mengwen Ye, Bowen Xu, Zhendi Chen, Quansheng Ren
- Abstract要約: 本稿では,脳波感情認識のための4次元注意型ニューラルネットワーク(4d-ann)を提案する。
提案された4D-aNNは、異なる脳領域および周波数帯域の重みを適応的に割り当てるためにスペクトルおよび空間的注意メカニズムを採用する。
本モデルは,物体内分割下でのSEEDデータセット上での最先端性能を実現する。
- 参考スコア(独自算出の注目度): 1.5749416770494706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Electroencephalograph (EEG) emotion recognition is a significant task in the
brain-computer interface field. Although many deep learning methods are
proposed recently, it is still challenging to make full use of the information
contained in different domains of EEG signals. In this paper, we present a
novel method, called four-dimensional attention-based neural network (4D-aNN)
for EEG emotion recognition. First, raw EEG signals are transformed into 4D
spatial-spectral-temporal representations. Then, the proposed 4D-aNN adopts
spectral and spatial attention mechanisms to adaptively assign the weights of
different brain regions and frequency bands, and a convolutional neural network
(CNN) is utilized to deal with the spectral and spatial information of the 4D
representations. Moreover, a temporal attention mechanism is integrated into a
bidirectional Long Short-Term Memory (LSTM) to explore temporal dependencies of
the 4D representations. Our model achieves state-of-the-art performance on the
SEED dataset under intra-subject splitting. The experimental results have shown
the effectiveness of the attention mechanisms in different domains for EEG
emotion recognition.
- Abstract(参考訳): 脳波(EEG)の感情認識は脳-コンピュータインターフェース分野において重要な課題である。
近年,多くの深層学習手法が提案されているが,脳波信号の異なる領域に含まれる情報を十分に活用することは依然として困難である。
本稿では,脳波の感情認識のための4次元アテンションベースニューラルネットワーク(4D-aNN)を提案する。
まず、生の脳波信号を4次元空間スペクトル時間表現に変換する。
そして、提案した4D-aNNは、異なる脳領域と周波数帯域の重みを適応的に割り当てるスペクトル及び空間的注意機構を採用し、4D表現のスペクトル及び空間情報を扱うために畳み込みニューラルネットワーク(CNN)を利用する。
さらに、時間的注意機構を双方向長短記憶(LSTM)に統合し、4次元表現の時間的依存関係を探索する。
本モデルは,物体内分割下でのSEEDデータセットの最先端性能を実現する。
実験の結果,脳波の感情認識における異なる領域における注意機構の有効性が示された。
関連論文リスト
- Neuro-3D: Towards 3D Visual Decoding from EEG Signals [49.502364730056044]
脳波信号から3次元視覚知覚を復号する新しい神経科学タスクを導入する。
まず、ビデオと画像の両方でレンダリングされた72の3Dオブジェクトのカテゴリを閲覧する12人の被験者から、マルチモーダル分析データと脳波記録を含むデータセットであるEEG-3Dを提示する。
脳波信号に基づく3次元視覚デコーディングフレームワークNeuro-3Dを提案する。
論文 参考訳(メタデータ) (2024-11-19T05:52:17Z) - MEEG and AT-DGNN: Improving EEG Emotion Recognition with Music Introducing and Graph-based Learning [3.840859750115109]
音楽誘発脳波(EEG)記録のマルチモーダルコレクションであるMEEGデータセットについて述べる。
本稿では,脳波に基づく感情認識のための新しいフレームワークである動的グラフニューラルネットワーク(AT-DGNN)を用いた注意に基づく時間学習について紹介する。
論文 参考訳(メタデータ) (2024-07-08T01:58:48Z) - Multi-modal Mood Reader: Pre-trained Model Empowers Cross-Subject Emotion Recognition [23.505616142198487]
我々は、クロスオブジェクト感情認識のための訓練済みモデルに基づくMultimodal Mood Readerを開発した。
このモデルは、大規模データセットの事前学習を通じて、脳波信号の普遍的な潜在表現を学習する。
公開データセットに関する大規模な実験は、クロスオブジェクト感情認識タスクにおけるMood Readerの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-28T14:31:11Z) - A Knowledge-Driven Cross-view Contrastive Learning for EEG
Representation [48.85731427874065]
本稿では,限られたラベルを持つ脳波から効果的な表現を抽出する知識駆動型クロスビューコントラスト学習フレームワーク(KDC2)を提案する。
KDC2法は脳波信号の頭皮と神経のビューを生成し、脳活動の内部および外部の表現をシミュレートする。
ニューラル情報整合性理論に基づく事前のニューラル知識をモデル化することにより、提案手法は不変かつ相補的なニューラル知識を抽出し、複合表現を生成する。
論文 参考訳(メタデータ) (2023-09-21T08:53:51Z) - Improving EEG-based Emotion Recognition by Fusing Time-frequency And
Spatial Representations [29.962519978925236]
クロスドメイン特徴融合法に基づく分類ネットワークを提案する。
また,2段階融合法を提案し,これらの手法を脳波感情認識ネットワークに適用する。
実験結果から,時間周波数領域と空間領域の複数の表現を結合したネットワークが,公開データセット上で従来の手法より優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-03-14T07:26:51Z) - fMRI from EEG is only Deep Learning away: the use of interpretable DL to
unravel EEG-fMRI relationships [68.8204255655161]
多チャンネル脳波データからいくつかの皮質下領域の活性を回復するための解釈可能な領域基底解を提案する。
我々は,皮質下核の血行動態信号の頭皮脳波予測の空間的・時間的パターンを復元する。
論文 参考訳(メタデータ) (2022-10-23T15:11:37Z) - Positional-Spectral-Temporal Attention in 3D Convolutional Neural
Networks for EEG Emotion Recognition [5.995842375590237]
本稿では,感情認識のための情報脳波の特徴を探求する新しい構造を提案する。
PSTアテンションモジュールは、位置、スペクトル、時間アテンションモジュールで構成されている。
提案手法は,3次元畳み込みニューラルネットワーク(3D-CNN)にプラグインモジュールとして適合する。
論文 参考訳(メタデータ) (2021-10-13T12:03:36Z) - SFE-Net: EEG-based Emotion Recognition with Symmetrical Spatial Feature
Extraction [1.8047694351309205]
脳波の特徴抽出と感情認識のための空間的折り畳みアンサンブルネットワーク(SFENet)を提案する。
ヒト脳の空間対称性のメカニズムによって、入力された脳波チャンネルデータを5つの異なる対称戦略で折り畳む。
このネットワークにより、異なる対称折り畳み記号の空間的特徴を同時に抽出することができ、特徴認識の堅牢性と精度を大幅に向上させる。
論文 参考訳(メタデータ) (2021-04-09T12:59:38Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - 4D Spatio-Temporal Deep Learning with 4D fMRI Data for Autism Spectrum
Disorder Classification [69.62333053044712]
ASD分類のための4次元畳み込み深層学習手法を提案する。
F1スコアは0.71、F1スコアは0.65であるのに対し、我々は4Dニューラルネットワークと畳み込みリカレントモデルを採用する。
論文 参考訳(メタデータ) (2020-04-21T17:19:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。