論文の概要: TSception: A Deep Learning Framework for Emotion Detection Using EEG
- arxiv url: http://arxiv.org/abs/2004.02965v2
- Date: Wed, 8 Apr 2020 01:39:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 10:05:00.079304
- Title: TSception: A Deep Learning Framework for Emotion Detection Using EEG
- Title(参考訳): TSception:脳波を用いた感情検出のためのディープラーニングフレームワーク
- Authors: Yi Ding, Neethu Robinson, Qiuhao Zeng, Duo Chen, Aung Aung Phyo Wai,
Tih-Shih Lee, Cuntai Guan
- Abstract要約: 脳波(EEG)からの感情検出のための深層学習フレームワークTSceptionを提案する。
TSceptionは時間と空間の畳み込み層で構成され、時間とチャネル領域における識別的表現を同時に学習する。
TSceptionは86.03%の高い分類精度を達成し、従来の手法よりも大幅に優れている。
- 参考スコア(独自算出の注目度): 11.444502210936776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a deep learning framework, TSception, for emotion
detection from electroencephalogram (EEG). TSception consists of temporal and
spatial convolutional layers, which learn discriminative representations in the
time and channel domains simultaneously. The temporal learner consists of
multi-scale 1D convolutional kernels whose lengths are related to the sampling
rate of the EEG signal, which learns multiple temporal and frequency
representations. The spatial learner takes advantage of the asymmetry property
of emotion responses at the frontal brain area to learn the discriminative
representations from the left and right hemispheres of the brain. In our study,
a system is designed to study the emotional arousal in an immersive virtual
reality (VR) environment. EEG data were collected from 18 healthy subjects
using this system to evaluate the performance of the proposed deep learning
network for the classification of low and high emotional arousal states. The
proposed method is compared with SVM, EEGNet, and LSTM. TSception achieves a
high classification accuracy of 86.03%, which outperforms the prior methods
significantly (p<0.05). The code is available at
https://github.com/deepBrains/TSception
- Abstract(参考訳): 本稿では,脳波(eeg)からの感情検出のための深層学習フレームワークtsceptionを提案する。
tsceptionは時間的および空間的畳み込み層で構成され、時間領域とチャネル領域の識別表現を同時に学習する。
時間的学習者は、複数の時間的および周波数的表現を学習するEEG信号のサンプリングレートに長さが関係しているマルチスケールの1D畳み込みカーネルからなる。
空間学習者は、前頭脳領域における感情応答の非対称性特性を利用して、脳の左右半球から識別的表現を学習する。
本研究は,没入型仮想現実(vr)環境における情緒覚醒の研究を目的としている。
脳波データを健常者18名から収集し,低情緒的覚醒状態と高情緒的覚醒状態の分類のための深層学習ネットワークの性能評価を行った。
提案手法は,SVM,EEGNet,LSTMと比較する。
tsception は 86.03% という高い分類精度を達成し、従来の方法を大きく上回る(p<0.05)。
コードはhttps://github.com/deepBrains/TSceptionで入手できる。
関連論文リスト
- EGNN-C+: Interpretable Evolving Granular Neural Network and Application
in Classification of Weakly-Supervised EEG Data Streams [0.0]
グラニュラーニューラルネットワーク(eGNN-C+)の進化のための改良型インクリメンタル学習アルゴリズムを提案する。
脳波(EEG)信号における感情関連パターンの分類に着目する。
論文 参考訳(メタデータ) (2024-02-26T15:11:41Z) - MASA-TCN: Multi-anchor Space-aware Temporal Convolutional Neural
Networks for Continuous and Discrete EEG Emotion Recognition [11.882642356358883]
脳波の感情回帰と分類タスクのための新しいモデル MASA-TCN を提案する。
空間認識時間層は、TNがEEG電極間の空間関係から追加的に学習することを可能にする。
実験により、MASA-TCNは、脳波の感情回帰と分類タスクの両方において最先端の手法よりも高い結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-30T04:49:24Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - fMRI from EEG is only Deep Learning away: the use of interpretable DL to
unravel EEG-fMRI relationships [68.8204255655161]
多チャンネル脳波データからいくつかの皮質下領域の活性を回復するための解釈可能な領域基底解を提案する。
我々は,皮質下核の血行動態信号の頭皮脳波予測の空間的・時間的パターンを復元する。
論文 参考訳(メタデータ) (2022-10-23T15:11:37Z) - EEGminer: Discovering Interpretable Features of Brain Activity with
Learnable Filters [72.19032452642728]
本稿では,学習可能なフィルタと事前決定された特徴抽出モジュールからなる新しい識別可能なEEGデコーディングパイプラインを提案する。
我々は,SEEDデータセットおよび前例のない大きさの新たな脳波データセット上で,脳波信号からの感情認識に向けたモデルの有用性を実証する。
発見された特徴は、以前の神経科学の研究と一致し、音楽聴取中の左右の時間領域間の機能的接続プロファイルの顕著な相違など、新たな洞察を提供する。
論文 参考訳(メタデータ) (2021-10-19T14:22:04Z) - Contrastive Learning of Subject-Invariant EEG Representations for
Cross-Subject Emotion Recognition [9.07006689672858]
本稿では、信頼度の高いクロスオブジェクト感情認識のためのISAのためのコントラスト学習法を提案する。
ISAは、異なる刺激に対して同じ刺激を受けた被験者間での脳波信号の類似性を最大化する。
脳波信号から物体間表現を学習するために,深部空間畳み込み層と時間畳み込み層を有する畳み込みニューラルネットワークを適用した。
論文 参考訳(メタデータ) (2021-09-20T14:13:45Z) - SFE-Net: EEG-based Emotion Recognition with Symmetrical Spatial Feature
Extraction [1.8047694351309205]
脳波の特徴抽出と感情認識のための空間的折り畳みアンサンブルネットワーク(SFENet)を提案する。
ヒト脳の空間対称性のメカニズムによって、入力された脳波チャンネルデータを5つの異なる対称戦略で折り畳む。
このネットワークにより、異なる対称折り畳み記号の空間的特徴を同時に抽出することができ、特徴認識の堅牢性と精度を大幅に向上させる。
論文 参考訳(メタデータ) (2021-04-09T12:59:38Z) - TSception: Capturing Temporal Dynamics and Spatial Asymmetry from EEG
for Emotion Recognition [9.825158483198113]
TSceptionは、情動性脳波(EEG)から時相ダイナミクスを学ぶためのマルチスケール畳み込みニューラルネットワークである
提案手法は, 今後, 感情認識のための感情調節療法に用いることができる。
論文 参考訳(メタデータ) (2021-04-07T06:10:01Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - An End-to-End Visual-Audio Attention Network for Emotion Recognition in
User-Generated Videos [64.91614454412257]
畳み込みニューラルネットワーク(CNN)に基づくエンドツーエンドの映像感情認識を提案する。
具体的には,空間的,チャネル的,時間的注意を視覚的に3D CNNに統合し,時間的注意をオーディオ2D CNNに組み込む新しいアーキテクチャである,深層ビジュアル・オーディオ・アテンション・ネットワーク(VAANet)を開発した。
論文 参考訳(メタデータ) (2020-02-12T15:33:59Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。