論文の概要: Leveraging Vision Transformers for Enhanced Classification of Emotions using ECG Signals
- arxiv url: http://arxiv.org/abs/2510.05826v1
- Date: Tue, 07 Oct 2025 11:49:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-27 22:13:09.397337
- Title: Leveraging Vision Transformers for Enhanced Classification of Emotions using ECG Signals
- Title(参考訳): 心電図信号を用いた感情の高次分類のための視覚変換器の活用
- Authors: Pubudu L. Indrasiri, Bipasha Kashyap, Pubudu N. Pathirana,
- Abstract要約: 生体信号は、人体に影響を及ぼす様々な状態に関する洞察を与える。
ECGデータは、感情的覚醒、ストレスレベル、自律神経系の活動に関連する心拍変動の変化を明らかにすることができる。
近年の現場の進歩は、先進的なトランスアーキテクチャの力を活用して従来のアプローチから分岐している。
- 参考スコア(独自算出の注目度): 1.6018045082682821
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Biomedical signals provide insights into various conditions affecting the human body. Beyond diagnostic capabilities, these signals offer a deeper understanding of how specific organs respond to an individual's emotions and feelings. For instance, ECG data can reveal changes in heart rate variability linked to emotional arousal, stress levels, and autonomic nervous system activity. This data offers a window into the physiological basis of our emotional states. Recent advancements in the field diverge from conventional approaches by leveraging the power of advanced transformer architectures, which surpass traditional machine learning and deep learning methods. We begin by assessing the effectiveness of the Vision Transformer (ViT), a forefront model in image classification, for identifying emotions in imaged ECGs. Following this, we present and evaluate an improved version of ViT, integrating both CNN and SE blocks, aiming to bolster performance on imaged ECGs associated with emotion detection. Our method unfolds in two critical phases: first, we apply advanced preprocessing techniques for signal purification and converting signals into interpretable images using continuous wavelet transform and power spectral density analysis; second, we unveil a performance-boosted vision transformer architecture, cleverly enhanced with convolutional neural network components, to adeptly tackle the challenges of emotion recognition. Our methodology's robustness and innovation were thoroughly tested using ECG data from the YAAD and DREAMER datasets, leading to remarkable outcomes. For the YAAD dataset, our approach outperformed existing state-of-the-art methods in classifying seven unique emotional states, as well as in valence and arousal classification. Similarly, in the DREAMER dataset, our method excelled in distinguishing between valence, arousal and dominance, surpassing current leading techniques.
- Abstract(参考訳): 生体信号は、人体に影響を与える様々な状況についての洞察を提供する。
診断能力以外にも、これらの信号は特定の臓器が個人の感情や感情にどのように反応するかをより深く理解する。
例えば、心電図のデータは、感情的興奮、ストレスレベル、自律神経系の活動に関連する心拍変動の変化を明らかにすることができる。
このデータは、私たちの感情状態の生理的基盤の窓口を提供する。
近年の現場の進歩は、従来の機械学習や深層学習を超越した先進的なトランスフォーマーアーキテクチャの力を活用して、従来のアプローチから分岐している。
まず、画像分類における最前線モデルである視覚変換器(ViT)の有効性を評価し、画像化された心電図の感情を識別することから始める。
次に、感情検出に関連する画像付き心電図の性能向上を目的として、CNNとSEブロックを統合したViTの改良版を提示、評価する。
まず、連続ウェーブレット変換とパワースペクトル密度解析を用いて信号を解釈可能な画像に変換し、第2に、畳み込みニューラルネットワークコンポーネントで巧みに強化された高性能な視覚変換器アーキテクチャを公開し、感情認識の課題に対処する。
我々の方法論の堅牢性と革新性はYAADとDREAMERデータセットのECGデータを用いて徹底的に検証され、顕著な結果となった。
YAADデータセットでは、7つの独特な感情状態の分類や、有病率や覚醒率の分類において、既存の最先端手法よりも優れていた。
同様に、DREAMERデータセットでは、我々の手法は、現在の先行技術を上回る、原子価、覚醒、支配の区別に優れていた。
関連論文リスト
- Spatial-Functional awareness Transformer-based graph archetype contrastive learning for Decoding Visual Neural Representations from EEG [3.661246946935037]
本稿では,脳波に基づく視覚的デコーディングを強化するために,空間認識変換器を用いたグラフアーチタイプコントラスト学習(SFTG)フレームワークを提案する。
具体的には、空間的脳の接続性と時間的神経力学を同時に符号化する新しいグラフベースのニューラルアーキテクチャであるEEG Graph Transformer(EGT)を紹介する。
高い対象内変動を緩和するために,特徴の整合性とクラス分離性を改善するために,主観固有の脳波グラフアーチタイプを学習するグラフアーチタイプコントラスト学習(GAC)を提案する。
論文 参考訳(メタデータ) (2025-09-29T13:27:55Z) - CAST-Phys: Contactless Affective States Through Physiological signals Database [74.28082880875368]
感情的なマルチモーダルデータセットの欠如は、正確な感情認識システムを開発する上で、依然として大きなボトルネックとなっている。
遠隔の生理的感情認識が可能な新しい高品質なデータセットであるCAST-Physを提示する。
本分析では,表情だけでは十分な感情情報が得られない現実的なシナリオにおいて,生理的信号が重要な役割を担っていることを強調した。
論文 参考訳(メタデータ) (2025-07-08T15:20:24Z) - BrainOmni: A Brain Foundation Model for Unified EEG and MEG Signals [46.121056431476156]
異種脳波とMEG記録を対象とする脳基礎モデルBrain Omniを提案する。
既存のアプローチは一般的に、パフォーマンスとクロスドメインのスケーラビリティを制限する、分離、モダリティ、データセット固有のモデルに依存します。
EEGの合計1,997時間、MEGデータの656時間は、事前トレーニングのために公開されているソースからキュレーションされ、標準化されている。
論文 参考訳(メタデータ) (2025-05-18T14:07:14Z) - CognitionCapturer: Decoding Visual Stimuli From Human EEG Signal With Multimodal Information [61.1904164368732]
脳波信号の表現にマルチモーダルデータを完全に活用する統合フレームワークであるCognitionCapturerを提案する。
具体的には、CognitionCapturerは、各モダリティに対してモダリティエキスパートを訓練し、EEGモダリティからモダリティ情報を抽出する。
このフレームワークは生成モデルの微調整を一切必要とせず、より多くのモダリティを組み込むように拡張することができる。
論文 参考訳(メタデータ) (2024-12-13T16:27:54Z) - Smile upon the Face but Sadness in the Eyes: Emotion Recognition based on Facial Expressions and Eye Behaviors [63.194053817609024]
視覚行動は、視覚行動支援型マルチモーダル感情認識データセットを作成するための重要な感情的手がかりとなる。
EMERデータセットに感情認識(ER)と表情認識(FER)の両方のアノテーションを初めて提供する。
具体的には、ERとFERの両方のパフォーマンスを同時に向上する新しいEMERTアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-11-08T04:53:55Z) - A Unified Transformer-based Network for multimodal Emotion Recognition [4.07926531936425]
本稿では,心電図/信号の2次元表現と顔情報を組み合わせることで,覚醒空間内の感情を分類するトランスフォーマーに基づく手法を提案する。
我々のモデルは最先端技術に匹敵する結果をもたらす。
論文 参考訳(メタデータ) (2023-08-27T17:30:56Z) - Transformer-Based Self-Supervised Learning for Emotion Recognition [0.0]
心電図(ECG)を感情認識に利用するトランスフォーマーモデルを提案する。
感情ラベル付きデータセットの比較的小さなサイズを克服するために,自己教師型学習を採用する。
AMIGOSの心電図信号を用いた感情認識の最先端性能を示す。
論文 参考訳(メタデータ) (2022-04-08T07:14:55Z) - Self-supervised ECG Representation Learning for Emotion Recognition [25.305949034527202]
我々は心電図に基づく感情認識のための自己教師型深層マルチタスク学習フレームワークを利用する。
提案手法は,完全教師付き学習を用いて学習したネットワークと比較して,性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-02-04T17:15:37Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。