論文の概要: A Brain Wave Encodes a Thousand Tokens: Modeling Inter-Cortical Neural Interactions for Effective EEG-based Emotion Recognition
- arxiv url: http://arxiv.org/abs/2511.13954v1
- Date: Mon, 17 Nov 2025 22:27:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.826858
- Title: A Brain Wave Encodes a Thousand Tokens: Modeling Inter-Cortical Neural Interactions for Effective EEG-based Emotion Recognition
- Title(参考訳): 数千のトークンを符号化した脳波:脳波を用いた効果的な感情認識のための皮質間神経相互作用のモデル化
- Authors: Nilay Kumar, Priyansh Bhandari, G. Maragatham,
- Abstract要約: 本稿では,潜時空間における脳の皮質間神経力学をモデル化するTransformerベースのニューラルネットワークアーキテクチャであるRBTransformerを提案する。
本研究は,SEED,DEAP,DREAMERデータセットを用いて,特に主観的設定下で広範囲にわたる実験を行った。
その結果,提案したRBTransformerは,従来の最先端手法を3つのデータセットすべてで上回っていることがわかった。
- 参考スコア(独自算出の注目度): 0.41998444721319217
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human emotions are difficult to convey through words and are often abstracted in the process; however, electroencephalogram (EEG) signals can offer a more direct lens into emotional brain activity. Recent studies show that deep learning models can process these signals to perform emotion recognition with high accuracy. However, many existing approaches overlook the dynamic interplay between distinct brain regions, which can be crucial to understanding how emotions unfold and evolve over time, potentially aiding in more accurate emotion recognition. To address this, we propose RBTransformer, a Transformer-based neural network architecture that models inter-cortical neural dynamics of the brain in latent space to better capture structured neural interactions for effective EEG-based emotion recognition. First, the EEG signals are converted into Band Differential Entropy (BDE) tokens, which are then passed through Electrode Identity embeddings to retain spatial provenance. These tokens are processed through successive inter-cortical multi-head attention blocks that construct an electrode x electrode attention matrix, allowing the model to learn the inter-cortical neural dependencies. The resulting features are then passed through a classification head to obtain the final prediction. We conducted extensive experiments, specifically under subject-dependent settings, on the SEED, DEAP, and DREAMER datasets, over all three dimensions, Valence, Arousal, and Dominance (for DEAP and DREAMER), under both binary and multi-class classification settings. The results demonstrate that the proposed RBTransformer outperforms all previous state-of-the-art methods across all three datasets, over all three dimensions under both classification settings. The source code is available at: https://github.com/nnilayy/RBTransformer.
- Abstract(参考訳): 人間の感情は言葉を通して伝達することは困難であり、しばしばその過程で抽象化されるが、脳波(EEG)信号は感情的な脳活動に対してより直接的なレンズを提供する。
近年の研究では、深層学習モデルがこれらの信号を処理して感情認識を高精度に行うことが示されている。
しかし、多くの既存のアプローチは、異なる脳領域間の動的相互作用を見落としており、感情が時間とともにどのように展開し、どのように進化するかを理解するのに不可欠であり、より正確な感情認識を助ける可能性がある。
この問題を解決するために,TransformerベースのニューラルネットワークアーキテクチャであるRBTransformerを提案する。このアーキテクチャは,潜時空間における脳の皮質間神経力学をモデル化し,脳波に基づく感情認識のための構造化された神経相互作用をよりよく捉える。
まず、EEG信号はBand Differential Entropy(BDE)トークンに変換され、電気的アイデンティティーの埋め込みを通して空間的前兆を保持する。
これらのトークンは、電極x電極のアテンションマトリックスを構成する連続した皮質間マルチヘッドアテンションブロックを通じて処理され、皮質間神経依存を学習することができる。
得られた特徴は、最終予測を得るために分類ヘッドに渡される。
本研究は,SEED,DEAP,DREAMERの3次元,すなわちValence,Arousal,Dominance(DREAMER用),DREAMER用)の2値・2値・2値・2値・2値・3値・3値・3値・3値・3値・3値・3値・3値・2値・3値・2値・3値・3値・2値・3値・2値・2値・3値・2値・2値・2値・3値・2値・2値・2値・3値・3値・2値・3値・2値・3値・2値・2値・3値・2値・2値・3値・2値・2値・3値・2値・2値・2値・2値・2値・2値・2
その結果,提案したRBTransformerは,3つのデータセットすべてに対して,いずれの分類設定下においても,従来の最先端手法よりも優れていたことがわかった。
ソースコードは、https://github.com/nnilayy/RBTransformer.comで入手できる。
関連論文リスト
- Leveraging Vision Transformers for Enhanced Classification of Emotions using ECG Signals [1.6018045082682821]
生体信号は、人体に影響を及ぼす様々な状態に関する洞察を与える。
ECGデータは、感情的覚醒、ストレスレベル、自律神経系の活動に関連する心拍変動の変化を明らかにすることができる。
近年の現場の進歩は、先進的なトランスアーキテクチャの力を活用して従来のアプローチから分岐している。
論文 参考訳(メタデータ) (2025-10-07T11:49:57Z) - BrainOmni: A Brain Foundation Model for Unified EEG and MEG Signals [46.121056431476156]
異種脳波とMEG記録を対象とする脳基礎モデルBrain Omniを提案する。
既存のアプローチは一般的に、パフォーマンスとクロスドメインのスケーラビリティを制限する、分離、モダリティ、データセット固有のモデルに依存します。
EEGの合計1,997時間、MEGデータの656時間は、事前トレーニングのために公開されているソースからキュレーションされ、標準化されている。
論文 参考訳(メタデータ) (2025-05-18T14:07:14Z) - PHemoNet: A Multimodal Network for Physiological Signals [9.54382727022316]
生理的信号からのマルチモーダル感情認識のための完全超複雑ネットワークであるPHemoNetを紹介する。
アーキテクチャは、モダリティ特異的エンコーダと融合モジュールとから構成される。
提案手法は,MAHNOB-HCIデータセットの最先端モデルより優れている。
論文 参考訳(メタデータ) (2024-09-13T21:14:27Z) - Implementation of AI Deep Learning Algorithm For Multi-Modal Sentiment
Analysis [0.9065034043031668]
2チャンネル畳み込みニューラルネットワークとリングネットワークを組み合わせることで,マルチモーダル感情認識手法を確立した。
単語はGloVeでベクトル化され、ワードベクトルは畳み込みニューラルネットワークに入力される。
論文 参考訳(メタデータ) (2023-11-19T05:49:39Z) - Emotion Analysis on EEG Signal Using Machine Learning and Neural Network [0.0]
本研究の目的は,脳信号を用いた感情認識能力の向上である。
人間と機械の相互作用技術への様々なアプローチは長い間進行中であり、近年では脳信号を使って感情を自動的に理解することに成功した。
論文 参考訳(メタデータ) (2023-07-09T09:50:34Z) - Human Emotion Classification based on EEG Signals Using Recurrent Neural
Network And KNN [0.0]
脳波データからの感情分類が最近注目されている。
脳波信号は脳-コンピュータインタフェースにとって重要なリソースである。
チャネル選択前処理により, 善, 中, 負の感情に関連する脳波信号が同定された。
論文 参考訳(メタデータ) (2022-05-10T16:20:14Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。