論文の概要: Spatiotemporal EEG-Based Emotion Recognition Using SAM Ratings from Serious Games with Hybrid Deep Learning
- arxiv url: http://arxiv.org/abs/2508.21103v1
- Date: Thu, 28 Aug 2025 08:25:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.829283
- Title: Spatiotemporal EEG-Based Emotion Recognition Using SAM Ratings from Serious Games with Hybrid Deep Learning
- Title(参考訳): ハイブリッドディープラーニングを用いたシリアスゲームからのSAMレーティングを用いた時空間脳波に基づく感情認識
- Authors: Abdul Rehman, Ilona Heldal, Jerry Chun-Wei Lin,
- Abstract要約: 本稿では,GAMEEMOデータセット上に構築された多粒度脳波感情分類フレームワークを提案する。
我々のパイプラインは、時間的ウィンドウ分割、ハイブリッド統計および周波数領域特徴抽出、zスコア正規化を含む構造化前処理戦略を採用している。
我々は、LSTM、LSTM-GRU、CNN-LSTMなどの深層ニューラルネットワークとともに、ランダムフォレスト、XGBoost、SVMを含む幅広いモデルを評価する。
- 参考スコア(独自算出の注目度): 19.50016953929723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in EEG-based emotion recognition have shown promising outcomes using both deep learning and classical machine learning approaches; however, most existing studies focus narrowly on binary valence prediction or subject-specific classification, which limits generalizability and deployment in real-world affective computing systems. To address this gap, this paper presents a unified, multigranularity EEG emotion classification framework built on the GAMEEMO dataset, which consists of 14-channel EEG recordings and continuous self-reported emotion ratings (boring, horrible, calm, and funny) from 28 subjects across four emotion-inducing gameplay scenarios. Our pipeline employs a structured preprocessing strategy that comprises temporal window segmentation, hybrid statistical and frequency-domain feature extraction, and z-score normalization to convert raw EEG signals into robust, discriminative input vectors. Emotion labels are derived and encoded across three complementary axes: (i) binary valence classification based on the averaged polarity of positive and negative emotion ratings, and (ii) Multi-class emotion classification, where the presence of the most affective state is predicted. (iii) Fine-grained multi-label representation via binning each emotion into 10 ordinal classes. We evaluate a broad spectrum of models, including Random Forest, XGBoost, and SVM, alongside deep neural architectures such as LSTM, LSTM-GRU, and CNN-LSTM. Among these, the LSTM-GRU model consistently outperforms the others, achieving an F1-score of 0.932 in the binary valence task and 94.5% and 90.6% in both multi-class and Multi-Label emotion classification.
- Abstract(参考訳): 脳波に基づく感情認識の最近の進歩は、ディープラーニングと古典的機械学習の両方のアプローチを用いて有望な成果を示しているが、既存の研究は、現実の感情コンピューティングシステムにおける一般化可能性と展開を制限するバイナリ価予測や主題固有の分類に焦点を絞っている。
このギャップに対処するために, GAMEEMOデータセット上に構築された統合された多粒性脳波感情分類フレームワークについて, 4つの感情誘導シナリオから28人の被験者を対象に, 14チャンネルの脳波記録と連続的な自己報告感情評価(ボーリング, 恐ろしい, 落ち着いた, 面白い)からなる。
我々のパイプラインは、時間的ウィンドウ分割、ハイブリッド統計および周波数領域特徴抽出、zスコア正規化を含む構造化前処理戦略を用いて、生の脳波信号を堅牢で識別可能な入力ベクトルに変換する。
感情ラベルは3つの相補的な軸で導出され符号化される。
一 正及び負の感情評価の平均極性に基づく二分数価分類、及び
(II)最も感情的な状態が存在することが予測されるマルチクラス感情分類。
3) 感情を10の順序クラスに結合することで, きめ細かいマルチラベル表現を行う。
我々は、LSTM、LSTM-GRU、CNN-LSTMなどの深層ニューラルネットワークとともに、ランダムフォレスト、XGBoost、SVMを含む幅広いモデルを評価する。
これらのうち、LSTM-GRUモデルは、バイナリ価タスクにおいてF1スコア0.932、マルチクラスとマルチラベルの感情分類において94.5%と90.6%を達成し、他のモデルよりも一貫して優れている。
関連論文リスト
- VR Based Emotion Recognition Using Deep Multimodal Fusion With Biosignals Across Multiple Anatomical Domains [3.303674512749726]
本稿では,Squeeze-and-Excitation(SE)ブロックと組み合わせた,新しいマルチスケールアテンションベースのLSTMアーキテクチャを提案する。
提案したアーキテクチャは,ユーザスタディで検証され,評価値と覚醒レベルを分類する上で,優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-03T08:59:12Z) - EEG-SCMM: Soft Contrastive Masked Modeling for Cross-Corpus EEG-Based Emotion Recognition [0.862468061241377]
クロスコーパス脳波に基づく感情認識の課題を解決するために,ソフトコントラスト・マスクド・モデリング(SCMM)と呼ばれる新しいフレームワークを提案する。
SCMMは、ソフトコントラスト学習とハイブリッドマスキング戦略を統合し、感情力学を効果的に捉える。
実験では、SCMMは、同じクラスと異なるクラスのクロスコーパス設定の両方で平均4.26%の精度を達成する。
論文 参考訳(メタデータ) (2024-08-17T12:35:13Z) - Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - Joint Contrastive Learning with Feature Alignment for Cross-Corpus EEG-based Emotion Recognition [2.1645626994550664]
我々は,クロスコーパス脳波に基づく感情認識に対処するために,特徴アライメントを用いた新しいコントラスト学習フレームワークを提案する。
事前学習段階では、脳波信号の一般化可能な時間周波数表現を特徴付けるために、共同領域コントラスト学習戦略を導入する。
微調整の段階では、JCFAは脳電極間の構造的接続を考慮した下流タスクと共に洗練される。
論文 参考訳(メタデータ) (2024-04-15T08:21:17Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - Self-supervised Group Meiosis Contrastive Learning for EEG-Based Emotion
Recognition [4.763573596218676]
限られたラベルで感情を認識する方法が、新しい研究とアプリケーションのボトルネックになっている。
本稿では,ヒトにおける脳波の刺激的一貫した信号に基づく,自己教師型グループマイオーシスコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T21:20:12Z) - Group Gated Fusion on Attention-based Bidirectional Alignment for
Multimodal Emotion Recognition [63.07844685982738]
本稿では、LSTM隠蔽状態上の注目に基づく双方向アライメントネットワークで構成されるGBAN(Gated Bidirectional Alignment Network)と呼ばれる新しいモデルを提案する。
LSTMの最後の隠れ状態よりもアテンション整列表現の方が有意に優れていたことを実証的に示す。
提案したGBANモデルは、IEMOCAPデータセットにおける既存の最先端マルチモーダルアプローチよりも優れている。
論文 参考訳(メタデータ) (2022-01-17T09:46:59Z) - Contrastive Learning of Subject-Invariant EEG Representations for
Cross-Subject Emotion Recognition [9.07006689672858]
本稿では、信頼度の高いクロスオブジェクト感情認識のためのISAのためのコントラスト学習法を提案する。
ISAは、異なる刺激に対して同じ刺激を受けた被験者間での脳波信号の類似性を最大化する。
脳波信号から物体間表現を学習するために,深部空間畳み込み層と時間畳み込み層を有する畳み込みニューラルネットワークを適用した。
論文 参考訳(メタデータ) (2021-09-20T14:13:45Z) - Emotional Semantics-Preserved and Feature-Aligned CycleGAN for Visual
Emotion Adaptation [85.20533077846606]
教師なしドメイン適応(UDA)は、あるラベル付きソースドメインで訓練されたモデルを別のラベル付きターゲットドメインに転送する問題を研究する。
本稿では,感情分布学習と支配的感情分類の両面での視覚的感情分析におけるUDAに着目した。
本稿では,CycleEmotionGAN++と呼ばれる,エンドツーエンドのサイクル整合対向モデルを提案する。
論文 参考訳(メタデータ) (2020-11-25T01:31:01Z) - Symbiotic Adversarial Learning for Attribute-based Person Search [86.7506832053208]
本稿では,共生学習の枠組みとして,共生学習の基盤に2つのGANを配置する。
具体的には、2種類の生成的敵ネットワークがトレーニングプロセスを通して協調的に学習する。
論文 参考訳(メタデータ) (2020-07-19T07:24:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。