論文の概要: CIT-EmotionNet: CNN Interactive Transformer Network for EEG Emotion
Recognition
- arxiv url: http://arxiv.org/abs/2305.05548v1
- Date: Sun, 7 May 2023 16:27:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 19:24:29.215780
- Title: CIT-EmotionNet: CNN Interactive Transformer Network for EEG Emotion
Recognition
- Title(参考訳): CIT-EmotionNet:脳波認識のためのCNNインタラクティブトランスフォーマネットワーク
- Authors: Wei Lu, Hua Ma, and Tien-Ping Tan
- Abstract要約: 我々はCIT-EmotionNetとして知られる脳波認識のための新しいCNN Interactive Transformer Networkを提案する。
我々は、生の脳波信号を入力として空間周波数表現に変換し、その後、コンボリューショナルニューラルネットワーク(CNN)とトランスフォーマーを1つのフレームワークに並列に統合する。
提案されたCIT-EmotionNetは最先端の手法より優れており、2つの公開データセットで平均認識精度98.57%と92.09%を達成している。
- 参考スコア(独自算出の注目度): 6.208851183775046
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion recognition using Electroencephalogram (EEG) signals has emerged as a
significant research challenge in affective computing and intelligent
interaction. However, effectively combining global and local features of EEG
signals to improve performance in emotion recognition is still a difficult
task. In this study, we propose a novel CNN Interactive Transformer Network for
EEG Emotion Recognition, known as CIT-EmotionNet, which efficiently integrates
global and local features of EEG signals. Initially, we convert raw EEG signals
into spatial-frequency representations, which serve as inputs. Then, we
integrate Convolutional Neural Network (CNN) and Transformer within a single
framework in a parallel manner. Finally, we design a CNN interactive
Transformer module, which facilitates the interaction and fusion of local and
global features, thereby enhancing the model's ability to extract both types of
features from EEG spatial-frequency representations. The proposed
CIT-EmotionNet outperforms state-of-the-art methods, achieving an average
recognition accuracy of 98.57\% and 92.09\% on two publicly available datasets,
SEED and SEED-IV, respectively.
- Abstract(参考訳): 脳波(EEG)信号を用いた感情認識は、感情コンピューティングと知的相互作用において重要な研究課題となっている。
しかし、脳波信号のグローバルおよびローカル機能を効果的に組み合わせ、感情認識のパフォーマンスを向上させることは依然として難しい課題である。
本研究では,脳波信号のグローバル・ローカルな特徴を効率的に統合する,脳波認識のための新しいCNN Interactive Transformer Network(CIT-EmotionNet)を提案する。
当初、生の脳波信号を空間周波数表現に変換し、入力として機能する。
次に,畳み込みニューラルネットワーク(cnn)とトランスフォーマーを並列に1つのフレームワークに統合する。
最後に,局所的特徴と大域的特徴の相互作用と融合を容易にするcnnインタラクティブトランスフォーマモジュールを設計し,eeg空間周波数表現から両方の特徴を抽出できるモデルの能力を高めた。
提案したCIT-EmotionNetは最先端の手法より優れており、2つの公開データセットSEEDとSEED-IVの平均認識精度は98.57\%と92.09\%である。
関連論文リスト
- CNN-Transformer Rectified Collaborative Learning for Medical Image Segmentation [60.08541107831459]
本稿では,医用画像セグメンテーションのための強力なCNNベースモデルとトランスフォーマーベースモデルを学習するための,CNN-Transformer修正協調学習フレームワークを提案する。
具体的には,学生ソフトラベルの誤り領域を適応的に選択・修正する基礎的真理を取り入れた修正ロジット・ワイド・コラボレーティブ・ラーニング(RLCL)戦略を提案する。
また,機能空間におけるCNNベースモデルとTransformerベースモデル間の効果的な知識伝達を実現するために,クラス認識型特徴量協調学習(CFCL)戦略を提案する。
論文 参考訳(メタデータ) (2024-08-25T01:27:35Z) - CSLP-AE: A Contrastive Split-Latent Permutation Autoencoder Framework
for Zero-Shot Electroencephalography Signal Conversion [49.1574468325115]
脳波分析の鍵となる目的は、基礎となる神経活動(コンテンツ)を抽出し、個体の変動(スタイル)を考慮することである。
近年の音声変換技術の発展に触発されて,脳波変換を直接最適化するCSLP-AEフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-13T22:46:43Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - A Hybrid End-to-End Spatio-Temporal Attention Neural Network with
Graph-Smooth Signals for EEG Emotion Recognition [1.6328866317851187]
本稿では,ネットワーク・テンポラルエンコーディングと繰り返しアテンションブロックのハイブリッド構造を用いて,解釈可能な表現を取得するディープニューラルネットワークを提案する。
提案したアーキテクチャは、公開されているDEAPデータセット上での感情分類の最先端結果を上回ることを実証する。
論文 参考訳(メタデータ) (2023-07-06T15:35:14Z) - Multi-scale Transformer-based Network for Emotion Recognition from Multi
Physiological Signals [11.479653866646762]
本稿では,生理学的データから感情認識を行うためのマルチスケールトランスフォーマーを用いた効率的な手法を提案する。
我々のアプローチは、内部信号と人間の感情の関係を確立するために、データのスケーリングと組み合わせたマルチモーダル手法を適用することである。
EPiCコンペティションのCASEデータセットでは,RMSEスコアが1.45。
論文 参考訳(メタデータ) (2023-05-01T11:10:48Z) - EEG2Vec: Learning Affective EEG Representations via Variational
Autoencoders [27.3162026528455]
我々は、感情的な刺激に反応して、潜在ベクトル空間におけるニューラルデータを表現することが、両方の感情状態を予測するのに役立つかどうかを考察する。
脳波データから生成的識別的表現を学習するための条件付き変分オートエンコーダベースのフレームワークであるEEG2Vecを提案する。
論文 参考訳(メタデータ) (2022-07-16T19:25:29Z) - Transformer-Based Self-Supervised Learning for Emotion Recognition [0.0]
心電図(ECG)を感情認識に利用するトランスフォーマーモデルを提案する。
感情ラベル付きデータセットの比較的小さなサイズを克服するために,自己教師型学習を採用する。
AMIGOSの心電図信号を用いた感情認識の最先端性能を示す。
論文 参考訳(メタデータ) (2022-04-08T07:14:55Z) - Iwin: Human-Object Interaction Detection via Transformer with Irregular
Windows [57.00864538284686]
Iwin Transformerは階層型トランスフォーマーで、不規則ウィンドウ内でトークン表現学習とトークン集約を行う。
Iwin Transformerの有効性と効率を,2つの標準HOI検出ベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-03-20T12:04:50Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - SFE-Net: EEG-based Emotion Recognition with Symmetrical Spatial Feature
Extraction [1.8047694351309205]
脳波の特徴抽出と感情認識のための空間的折り畳みアンサンブルネットワーク(SFENet)を提案する。
ヒト脳の空間対称性のメカニズムによって、入力された脳波チャンネルデータを5つの異なる対称戦略で折り畳む。
このネットワークにより、異なる対称折り畳み記号の空間的特徴を同時に抽出することができ、特徴認識の堅牢性と精度を大幅に向上させる。
論文 参考訳(メタデータ) (2021-04-09T12:59:38Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。