論文の概要: CMCRD: Cross-Modal Contrastive Representation Distillation for Emotion Recognition
- arxiv url: http://arxiv.org/abs/2504.09221v1
- Date: Sat, 12 Apr 2025 13:56:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-23 08:50:52.026228
- Title: CMCRD: Cross-Modal Contrastive Representation Distillation for Emotion Recognition
- Title(参考訳): CMCRD:感情認識のためのクロスモーダルコントラスト表現蒸留
- Authors: Siyuan Kan, Huanyu Wu, Zhenyao Cui, Fan Huang, Xiaolong Xu, Dongrui Wu,
- Abstract要約: クロスモーダルコントラスト表現蒸留(CMCRD)は、事前訓練された眼球運動分類モデルを用いて、脳波分類モデルのトレーニングを支援する。
テスト中は、脳波信号(または眼球運動信号)のみを取得し、マルチモーダルデータを必要としない。
EEGのみのモデルと比較すると、平均分類精度は約6.2%向上した。
- 参考スコア(独自算出の注目度): 15.72347392139404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion recognition is an important component of affective computing, and also human-machine interaction. Unimodal emotion recognition is convenient, but the accuracy may not be high enough; on the contrary, multi-modal emotion recognition may be more accurate, but it also increases the complexity and cost of the data collection system. This paper considers cross-modal emotion recognition, i.e., using both electroencephalography (EEG) and eye movement in training, but only EEG or eye movement in test. We propose cross-modal contrastive representation distillation (CMCRD), which uses a pre-trained eye movement classification model to assist the training of an EEG classification model, improving feature extraction from EEG signals, or vice versa. During test, only EEG signals (or eye movement signals) are acquired, eliminating the need for multi-modal data. CMCRD not only improves the emotion recognition accuracy, but also makes the system more simplified and practical. Experiments using three different neural network architectures on three multi-modal emotion recognition datasets demonstrated the effectiveness of CMCRD. Compared with the EEG-only model, it improved the average classification accuracy by about 6.2%.
- Abstract(参考訳): 感情認識は感情コンピューティングの重要な構成要素であり、人間と機械の相互作用でもある。
単モーダル感情認識は便利であるが、精度は十分ではなく、逆にマルチモーダル感情認識はより正確であるが、データ収集システムの複雑さとコストも増大させる。
脳波(EEG)と眼球運動(EEG)の両方をトレーニングで用いながら、テストでは脳波や眼球運動のみを用いて、クロスモーダルな感情認識を考察する。
脳波分類モデルの訓練を支援し、脳波信号からの特徴抽出を改善するために、事前訓練された眼球運動分類モデルを用いたクロスモーダルコントラスト表現蒸留(CMCRD)を提案する。
テスト中は、脳波信号(または眼球運動信号)のみを取得し、マルチモーダルデータを必要としない。
CMCRDは感情認識の精度を向上するだけでなく、システムをよりシンプルで実用的なものにする。
3つの異なるニューラルネットワークアーキテクチャを用いた3つのマルチモーダル感情認識データセットの実験は、MCCRDの有効性を実証した。
EEGのみのモデルと比較すると、平均分類精度は約6.2%向上した。
関連論文リスト
- learning discriminative features from spectrograms using center loss for speech emotion recognition [62.13177498013144]
本稿では,感情認識のための可変長スペクトログラムから識別特徴を学習するための新しい手法を提案する。
ソフトマックスのクロスエントロピー損失は、異なる感情カテゴリの特徴を分離可能とし、センターロスは、同じ感情カテゴリに属する特徴をその中心に効率的に引き出す。
論文 参考訳(メタデータ) (2025-01-02T06:52:28Z) - Smile upon the Face but Sadness in the Eyes: Emotion Recognition based on Facial Expressions and Eye Behaviors [63.194053817609024]
視覚行動は、視覚行動支援型マルチモーダル感情認識データセットを作成するための重要な感情的手がかりとなる。
EMERデータセットに感情認識(ER)と表情認識(FER)の両方のアノテーションを初めて提供する。
具体的には、ERとFERの両方のパフォーマンスを同時に向上する新しいEMERTアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-11-08T04:53:55Z) - A Supervised Information Enhanced Multi-Granularity Contrastive Learning Framework for EEG Based Emotion Recognition [14.199298112101802]
本研究では,脳波に基づく感情認識(SICLEER, Supervised Info-enhanced Contrastive Learning)のための新しいコントラスト学習フレームワークを提案する。
自己教師付きコントラスト学習損失と教師付き分類損失を組み合わせた共同学習モデルを提案する。
論文 参考訳(メタデータ) (2024-05-12T11:51:00Z) - Joint Contrastive Learning with Feature Alignment for Cross-Corpus EEG-based Emotion Recognition [2.1645626994550664]
我々は,クロスコーパス脳波に基づく感情認識に対処するために,特徴アライメントを用いた新しいコントラスト学習フレームワークを提案する。
事前学習段階では、脳波信号の一般化可能な時間周波数表現を特徴付けるために、共同領域コントラスト学習戦略を導入する。
微調整の段階では、JCFAは脳電極間の構造的接続を考慮した下流タスクと共に洗練される。
論文 参考訳(メタデータ) (2024-04-15T08:21:17Z) - Emotion Detection from EEG using Transfer Learning [0.0]
我々は,脳波に基づく感情検出において,限られたデータ可用性の課題を克服するために伝達学習を採用した。
モデルへの入力は、平均位相コヒーレンス (MPC) と正方形コヒーレンス (MSC) からなる画像行列の形で行われる。
論文 参考訳(メタデータ) (2023-06-09T05:43:06Z) - EEG2Vec: Learning Affective EEG Representations via Variational
Autoencoders [27.3162026528455]
我々は、感情的な刺激に反応して、潜在ベクトル空間におけるニューラルデータを表現することが、両方の感情状態を予測するのに役立つかどうかを考察する。
脳波データから生成的識別的表現を学習するための条件付き変分オートエンコーダベースのフレームワークであるEEG2Vecを提案する。
論文 参考訳(メタデータ) (2022-07-16T19:25:29Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z) - Investigating EEG-Based Functional Connectivity Patterns for Multimodal
Emotion Recognition [8.356765961526955]
本稿では, 強度, クラスタリング, 係数, 固有ベクトル中心性という3つの機能接続ネットワーク特性について検討する。
感情認識における脳波接続機能の識別能力は,3つの公開脳波データセットで評価される。
脳波の機能的接続特徴と眼球運動や生理的信号の特徴を組み合わせたマルチモーダル感情認識モデルを構築した。
論文 参考訳(メタデータ) (2020-04-04T16:51:56Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。