論文の概要: EmT: A Novel Transformer for Generalized Cross-subject EEG Emotion Recognition
- arxiv url: http://arxiv.org/abs/2406.18345v1
- Date: Wed, 26 Jun 2024 13:42:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-27 13:19:36.074947
- Title: EmT: A Novel Transformer for Generalized Cross-subject EEG Emotion Recognition
- Title(参考訳): EmT: 一般化多目的脳波認識のための新しい変換器
- Authors: Yi Ding, Chengxuan Tong, Shuailei Zhang, Muyun Jiang, Yong Li, Kevin Lim Jun Liang, Cuntai Guan,
- Abstract要約: 感情トランス(EmT)と呼ばれる新しいトランスモデルを導入する。
EmTは、一般化されたクロスオブジェクトEEG感情分類と回帰タスクの両方において優れているように設計されている。
4つの公開データセットの実験により、EmTは脳波の感情分類と回帰タスクの両方のベースラインメソッドよりも高い結果が得られることが示された。
- 参考スコア(独自算出の注目度): 11.027908624804535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integrating prior knowledge of neurophysiology into neural network architecture enhances the performance of emotion decoding. While numerous techniques emphasize learning spatial and short-term temporal patterns, there has been limited emphasis on capturing the vital long-term contextual information associated with emotional cognitive processes. In order to address this discrepancy, we introduce a novel transformer model called emotion transformer (EmT). EmT is designed to excel in both generalized cross-subject EEG emotion classification and regression tasks. In EmT, EEG signals are transformed into a temporal graph format, creating a sequence of EEG feature graphs using a temporal graph construction module (TGC). A novel residual multi-view pyramid GCN module (RMPG) is then proposed to learn dynamic graph representations for each EEG feature graph within the series, and the learned representations of each graph are fused into one token. Furthermore, we design a temporal contextual transformer module (TCT) with two types of token mixers to learn the temporal contextual information. Finally, the task-specific output module (TSO) generates the desired outputs. Experiments on four publicly available datasets show that EmT achieves higher results than the baseline methods for both EEG emotion classification and regression tasks. The code is available at https://github.com/yi-ding-cs/EmT.
- Abstract(参考訳): 神経生理学の事前知識をニューラルネットワークアーキテクチャに統合することで、感情の復号化性能が向上する。
多くのテクニックは、空間的および短期的な時間的パターンの学習を強調するが、感情的認知過程に関連する重要な長期的文脈情報の収集に重点を置いている。
この相違に対処するために,感情トランス (EmT) と呼ばれる新しいトランスフォーマーモデルを導入する。
EmTは、一般化されたクロスオブジェクトEEG感情分類と回帰タスクの両方において優れているように設計されている。
EmTでは、EEG信号は時間グラフ形式に変換され、時間グラフ構築モジュール(TGC)を使用してEEG特徴グラフのシーケンスを生成する。
その後、各EEG特徴グラフの動的グラフ表現をシリーズ内で学習するために、新しいマルチビューピラミッドGCNモジュール(RMPG)が提案され、各グラフの学習された表現を1つのトークンに融合する。
さらに,2種類のトークンミキサーを用いた時間的文脈変換モジュール(TCT)を設計し,時間的文脈情報を学習する。
最後に、タスク固有出力モジュール(TSO)が所望の出力を生成する。
4つの公開データセットの実験により、EmTは脳波の感情分類と回帰タスクの両方のベースラインメソッドよりも高い結果が得られることが示された。
コードはhttps://github.com/yi-ding-cs/EmT.comで入手できる。
関連論文リスト
- Automatic Graph Topology-Aware Transformer [50.2807041149784]
マイクロレベルおよびマクロレベルの設計による包括的グラフトランスフォーマー検索空間を構築した。
EGTASはマクロレベルでのグラフトランスフォーマートポロジとマイクロレベルでのグラフ認識戦略を進化させる。
グラフレベルおよびノードレベルのタスクに対して,EGTASの有効性を示す。
論文 参考訳(メタデータ) (2024-05-30T07:44:31Z) - From Static to Dynamic: Adapting Landmark-Aware Image Models for Facial Expression Recognition in Videos [88.08209394979178]
野生における動的表情認識(DFER)は、データ制限によって依然として妨げられている。
抽出された顔のランドマーク認識機能に暗黙的に符号化された既存のSFER知識と動的情報を活用する新しい静的・動的モデル(S2D)を提案する。
論文 参考訳(メタデータ) (2023-12-09T03:16:09Z) - MASA-TCN: Multi-anchor Space-aware Temporal Convolutional Neural
Networks for Continuous and Discrete EEG Emotion Recognition [11.882642356358883]
脳波の感情回帰と分類タスクのための新しいモデル MASA-TCN を提案する。
空間認識時間層は、TNがEEG電極間の空間関係から追加的に学習することを可能にする。
実験により、MASA-TCNは、脳波の感情回帰と分類タスクの両方において最先端の手法よりも高い結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-30T04:49:24Z) - A Hybrid End-to-End Spatio-Temporal Attention Neural Network with
Graph-Smooth Signals for EEG Emotion Recognition [1.6328866317851187]
本稿では,ネットワーク・テンポラルエンコーディングと繰り返しアテンションブロックのハイブリッド構造を用いて,解釈可能な表現を取得するディープニューラルネットワークを提案する。
提案したアーキテクチャは、公開されているDEAPデータセット上での感情分類の最先端結果を上回ることを実証する。
論文 参考訳(メタデータ) (2023-07-06T15:35:14Z) - TransformerG2G: Adaptive time-stepping for learning temporal graph
embeddings using transformers [2.2120851074630177]
本研究では,不確実な定量化を伴うグラフ埋め込みモデルであるTransformerG2Gを開発し,時間的グラフの時間的ダイナミクスを学習する。
提案したTransformerG2Gモデルが従来のマルチステップ法より優れていることを示す。
注意重みを調べることで、時間的依存関係を解明し、影響力のある要素を特定し、グラフ構造内の複雑な相互作用についての洞察を得ることができる。
論文 参考訳(メタデータ) (2023-07-05T18:34:22Z) - Graph Decision Transformer [83.76329715043205]
グラフ決定変換器(GDT)は、新しいオフライン強化学習手法である。
GDTは入力シーケンスを因果グラフにモデル化し、基本的な異なる概念間の潜在的な依存関係をキャプチャする。
実験の結果,GDT は画像ベース Atari と OpenAI の Gym 上で,最先端のオフライン RL 手法の性能と一致しているか,上回っていることがわかった。
論文 参考訳(メタデータ) (2023-03-07T09:10:34Z) - Transformer-Based Self-Supervised Learning for Emotion Recognition [0.0]
心電図(ECG)を感情認識に利用するトランスフォーマーモデルを提案する。
感情ラベル付きデータセットの比較的小さなサイズを克服するために,自己教師型学習を採用する。
AMIGOSの心電図信号を用いた感情認識の最先端性能を示す。
論文 参考訳(メタデータ) (2022-04-08T07:14:55Z) - PhysFormer: Facial Video-based Physiological Measurement with Temporal
Difference Transformer [55.936527926778695]
近年のディープラーニングアプローチは、時間的受容の限られた畳み込みニューラルネットワークを用いた微妙なrの手がかりのマイニングに重点を置いている。
本稿では,エンドツーエンドのビデオトランスをベースとしたアーキテクチャであるPhysFormerを提案する。
論文 参考訳(メタデータ) (2021-11-23T18:57:11Z) - Transformer-based Spatial-Temporal Feature Learning for EEG Decoding [4.8276709243429]
本稿では,主に注意機構に依存する新しい脳波復号法を提案する。
我々はより少ないパラメータで、脳波の多分類化における最先端のレベルに達しました。
脳-コンピュータインタフェース(BCI)の実用性を促進する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2021-06-11T00:48:18Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z) - Dynamic Graph Modeling of Simultaneous EEG and Eye-tracking Data for
Reading Task Identification [79.41619843969347]
我々は、脳波(EEG)と眼球運動(EM)データからヒトの読取意図を特定するための新しいアプローチAdaGTCNを提案する。
本稿では,AdaGTCN(Adaptive Graph Temporal Convolution Network)の手法として,Adaptive Graph Learning LayerとDeep Neighborhood Graph Convolution Layerを用いた。
このアプローチといくつかのベースラインを比較し、ZuCo 2.0データセットの6.29%の改善と広範なアブレーション実験を報告します。
論文 参考訳(メタデータ) (2021-02-21T18:19:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。