論文の概要: Temporal Aware Mixed Attention-based Convolution and Transformer Network
(MACTN) for EEG Emotion Recognition
- arxiv url: http://arxiv.org/abs/2305.18234v1
- Date: Thu, 18 May 2023 11:04:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-04 11:51:38.522299
- Title: Temporal Aware Mixed Attention-based Convolution and Transformer Network
(MACTN) for EEG Emotion Recognition
- Title(参考訳): 脳波認識のための時間アウェア混在型コンボリューション・トランスフォーマーネットワーク(MACTN)
- Authors: Xiaopeng Si, Dong Huang, Yulin Sun and Dong Ming
- Abstract要約: 局所的・大域的時間的情報を共同でモデル化するための階層型ハイブリッドモデルであるMACTNを提案する。
MACTNは、既存の方法と比較して、優れた分類精度とF1スコアを一貫して達成する。
この手法の初期のバージョンは同じアイデアを共有しており、2022年のワールド・ロボット・コンテストで感情的BCIコンペティションの最終大会で優勝した。
- 参考スコア(独自算出の注目度): 7.750875920617686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotion recognition plays a crucial role in human-computer interaction, and
electroencephalography (EEG) is advantageous for reflecting human emotional
states. In this study, we propose MACTN, a hierarchical hybrid model for
jointly modeling local and global temporal information. The model is inspired
by neuroscience research on the temporal dynamics of emotions. MACTN extracts
local emotional features through a convolutional neural network (CNN) and
integrates sparse global emotional features through a transformer. Moreover, we
employ channel attention mechanisms to identify the most task-relevant
channels. Through extensive experimentation on two publicly available datasets,
namely THU-EP and DEAP, our proposed method, MACTN, consistently achieves
superior classification accuracy and F1 scores compared to other existing
methods in most experimental settings. Furthermore, ablation studies have shown
that the integration of both self-attention mechanisms and channel attention
mechanisms leads to improved classification performance. Finally, an earlier
version of this method, which shares the same ideas, won the Emotional BCI
Competition's final championship in the 2022 World Robot Contest.
- Abstract(参考訳): 感情認識は人間とコンピュータの相互作用において重要な役割を担い、脳波(EEG)は人間の感情状態の反映に有利である。
本研究では,局所的・大域的時間的情報の共同モデリングのための階層型ハイブリッドモデルであるMACTNを提案する。
このモデルは、感情の時間的ダイナミクスに関する神経科学の研究にインスパイアされている。
MACTNは、畳み込みニューラルネットワーク(CNN)を通じて局所的な感情的特徴を抽出し、トランスフォーマーを通じて疎グローバルな感情的特徴を統合する。
さらに,最もタスクにかかわるチャネルを特定するために,チャネルアテンション機構を用いる。
THU-EP と DEAP という2つの公開データセットの広範な実験を通じて,提案手法である MACTN は,多くの実験環境において既存の手法と比較して,常に優れた分類精度とF1スコアを達成している。
さらに、アブレーション研究により、自己注意機構とチャネルアテンション機構の統合により、分類性能が向上することが示されている。
最後に、この方法の初期のバージョンは、同じアイデアを共有しており、2022年の世界ロボットコンテストで感情的BCIコンペティションの最終優勝を飾った。
関連論文リスト
- MEEG and AT-DGNN: Improving EEG Emotion Recognition with Music Introducing and Graph-based Learning [3.840859750115109]
音楽誘発脳波(EEG)記録のマルチモーダルコレクションであるMEEGデータセットについて述べる。
本稿では,脳波に基づく感情認識のための新しいフレームワークである動的グラフニューラルネットワーク(AT-DGNN)を用いた注意に基づく時間学習について紹介する。
論文 参考訳(メタデータ) (2024-07-08T01:58:48Z) - Multi-modal Mood Reader: Pre-trained Model Empowers Cross-Subject Emotion Recognition [23.505616142198487]
我々は、クロスオブジェクト感情認識のための訓練済みモデルに基づくMultimodal Mood Readerを開発した。
このモデルは、大規模データセットの事前学習を通じて、脳波信号の普遍的な潜在表現を学習する。
公開データセットに関する大規模な実験は、クロスオブジェクト感情認識タスクにおけるMood Readerの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-28T14:31:11Z) - Emotion Recognition Using Transformers with Masked Learning [7.650385662008779]
本研究では、視覚変換器(ViT)と変換器(Transformer)のモデルを用いて、Valence-Arousal(VA)の推定に焦点をあてる。
このアプローチは、従来の畳み込みニューラルネットワーク(CNN)とLong Short-Term Memory(LSTM)ベースのメソッドを超越し、新しいTransformerベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-19T12:26:53Z) - Emotion recognition based on multi-modal electrophysiology multi-head
attention Contrastive Learning [3.2536246345549538]
自己教師型コントラスト学習に基づくマルチモーダル感情認識手法ME-MHACLを提案する。
訓練された特徴抽出器をラベル付き電気生理学的信号に適用し、特徴融合に多頭部注意機構を用いる。
本手法は,感情認識タスクにおける既存のベンチマーク手法よりも優れ,個人間一般化能力に優れていた。
論文 参考訳(メタデータ) (2023-07-12T05:55:40Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - MMLatch: Bottom-up Top-down Fusion for Multimodal Sentiment Analysis [84.7287684402508]
マルチモーダル融合に対する最近のディープラーニングアプローチは、ハイレベルおよびミドルレベルの潜在モダリティ表現のボトムアップ融合に依存している。
人間の知覚モデルでは、高レベルの表現が感覚入力の知覚に影響を及ぼすトップダウン融合の重要性を強調している。
本稿では,ネットワークトレーニング中のフォワードパスにおけるフィードバック機構を用いて,トップダウンのクロスモーダルインタラクションをキャプチャするニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-01-24T17:48:04Z) - Group Gated Fusion on Attention-based Bidirectional Alignment for
Multimodal Emotion Recognition [63.07844685982738]
本稿では、LSTM隠蔽状態上の注目に基づく双方向アライメントネットワークで構成されるGBAN(Gated Bidirectional Alignment Network)と呼ばれる新しいモデルを提案する。
LSTMの最後の隠れ状態よりもアテンション整列表現の方が有意に優れていたことを実証的に示す。
提案したGBANモデルは、IEMOCAPデータセットにおける既存の最先端マルチモーダルアプローチよりも優れている。
論文 参考訳(メタデータ) (2022-01-17T09:46:59Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - Cross-individual Recognition of Emotions by a Dynamic Entropy based on
Pattern Learning with EEG features [2.863100352151122]
複数の個体の神経生理学的特徴に関連する情報的指標を抽象化するために,動的エントロピーに基づくパターン学習(DEPL)として表されるディープラーニングフレームワークを提案する。
DEPLは、ダイナミックエントロピーに基づく特徴の皮質位置間の相互依存性をモデル化することにより、ディープ畳み込みニューラルネットワークによって生成された表現の能力を向上した。
論文 参考訳(メタデータ) (2020-09-26T07:22:07Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。