論文の概要: Robust Emotion Recognition via Bi-Level Self-Supervised Continual Learning
- arxiv url: http://arxiv.org/abs/2505.10575v2
- Date: Mon, 19 May 2025 02:10:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 12:45:56.172508
- Title: Robust Emotion Recognition via Bi-Level Self-Supervised Continual Learning
- Title(参考訳): 双方向自己監督型連続学習によるロバスト感情認識
- Authors: Adnan Ahmad, Bahareh Nakisa, Mohammad Naim Rastgoo,
- Abstract要約: クロスオブジェクトの変動性とノイズラベルは、感情認識モデルの性能を妨げる。
本稿では,動的メモリバッファをベースとした2段階の自己教師付き連続学習フレームワークSSOCLを提案する。
このバイレベルアーキテクチャは、動的バッファと擬似ラベルの割り当てを反復的に洗練し、代表サンプルを効果的に保持する。
高速適応モジュールとクラスタマッピングモジュールを含むフレームワークの主要なコンポーネントは、データストリームの堅牢な学習と効果的な処理を可能にする。
- 参考スコア(独自算出の注目度): 3.472622494096705
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion recognition through physiological signals such as electroencephalogram (EEG) has become an essential aspect of affective computing and provides an objective way to capture human emotions. However, physiological data characterized by cross-subject variability and noisy labels hinder the performance of emotion recognition models. Existing domain adaptation and continual learning methods struggle to address these issues, especially under realistic conditions where data is continuously streamed and unlabeled. To overcome these limitations, we propose a novel bi-level self-supervised continual learning framework, SSOCL, based on a dynamic memory buffer. This bi-level architecture iteratively refines the dynamic buffer and pseudo-label assignments to effectively retain representative samples, enabling generalization from continuous, unlabeled physiological data streams for emotion recognition. The assigned pseudo-labels are subsequently leveraged for accurate emotion prediction. Key components of the framework, including a fast adaptation module and a cluster-mapping module, enable robust learning and effective handling of evolving data streams. Experimental validation on two mainstream EEG tasks demonstrates the framework's ability to adapt to continuous data streams while maintaining strong generalization across subjects, outperforming existing approaches.
- Abstract(参考訳): 脳波(EEG)のような生理的信号による感情認識は、感情コンピューティングの不可欠な側面となり、人間の感情を捉える客観的な方法を提供している。
しかし、クロスオブジェクト変動とノイズラベルを特徴とする生理学的データは、感情認識モデルの性能を損なう。
既存のドメイン適応と継続学習手法は、特にデータが継続的にストリーミングされ、ラベル付けされていない現実的な状況下では、これらの問題に対処するのに苦労する。
これらの制限を克服するために,動的メモリバッファに基づく2段階の自己教師付き連続学習フレームワークSSOCLを提案する。
このバイレベルアーキテクチャは、動的バッファと擬似ラベルの割り当てを反復的に洗練して、代表サンプルを効果的に保持し、継続的な、ラベルなしの生理的データストリームから感情認識への一般化を可能にする。
割り当てられた擬似ラベルはその後、正確な感情予測に活用される。
高速適応モジュールとクラスタマッピングモジュールを含むフレームワークの主要なコンポーネントは、データストリームの堅牢な学習と効果的な処理を可能にする。
2つのメインストリームのEEGタスクに対する実験的検証は、トピック間の強力な一般化を維持しながら、継続的なデータストリームに適応するフレームワークの能力を実証し、既存のアプローチを上回っている。
関連論文リスト
- Reinforced Interactive Continual Learning via Real-time Noisy Human Feedback [59.768119380109084]
本稿では,AIモデルがリアルタイムフィードバックから新たなスキルを動的に学習する対話型連続学習パラダイムを提案する。
大規模言語モデル(LLM)を活用した強化型対話型連続学習フレームワークRiCLを提案する。
我々のRiCLアプローチは、最先端のオンライン連続学習とノイズラベル学習の既存の組み合わせを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-15T03:22:03Z) - Emotion Recognition with CLIP and Sequential Learning [5.66758879852618]
本稿では,Valence-Arousal (VA) Estimation Challenge, Expression Recognition Challenge, and the Action Unit (AU) Detection Challengeについて述べる。
本手法では,継続的な感情認識の促進を目的とした新しい枠組みを導入する。
論文 参考訳(メタデータ) (2025-03-13T01:02:06Z) - Continuous Adversarial Text Representation Learning for Affective Recognition [1.319058156672392]
本稿では、トランスモデルにおける感情認識の埋め込みを強化するための新しいフレームワークを提案する。
提案手法は,コントラスト学習を導くために,連続原子価覚醒ラベリングシステムを導入する。
動的トークン摂動機構を用いて,感情関連トークンに着目し,感情的手がかりに対するモデル感度を向上させる。
論文 参考訳(メタデータ) (2025-02-28T00:29:09Z) - Self-supervised Gait-based Emotion Representation Learning from Selective Strongly Augmented Skeleton Sequences [4.740624855896404]
自己教師型歩行に基づく感情表現のための選択的強強化を利用したコントラスト学習フレームワークを提案する。
提案手法はEmotion-Gait (E-Gait) と Emilya のデータセットで検証され, 異なる評価プロトコル下での最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-05-08T09:13:10Z) - Graph Convolutional Network with Connectivity Uncertainty for EEG-based
Emotion Recognition [20.655367200006076]
本研究では,脳波信号の空間依存性と時間スペクトルの相対性を表す分布に基づく不確実性手法を提案する。
グラフ混合手法は、遅延接続エッジを強化し、ノイズラベル問題を緩和するために用いられる。
感情認識タスクにおいて、SEEDとSEEDIVという2つの広く使われているデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2023-10-22T03:47:11Z) - Transformer-based Self-supervised Multimodal Representation Learning for
Wearable Emotion Recognition [2.4364387374267427]
ウェアラブル感情認識のための新しい自己教師型学習(SSL)フレームワークを提案する。
本手法は様々な感情分類タスクにおいて最先端の結果を得た。
論文 参考訳(メタデータ) (2023-03-29T19:45:55Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。