論文の概要: Memory-guided Prototypical Co-occurrence Learning for Mixed Emotion Recognition
- arxiv url: http://arxiv.org/abs/2602.20530v1
- Date: Tue, 24 Feb 2026 04:11:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.597909
- Title: Memory-guided Prototypical Co-occurrence Learning for Mixed Emotion Recognition
- Title(参考訳): 混合感情認識のための記憶誘導型原型共起学習
- Authors: Ming Li, Yong-Jin Liu, Fang Liu, Huankun Sheng, Yeying Fan, Yixiang Wei, Minnan Luo, Weizhan Zhang, Wenping Wang,
- Abstract要約: 本稿では,感情共起パターンを明示的にモデル化するメモリ誘導型プロトタイプ共起学習フレームワークを提案する。
人間の認知記憶システムに触発されて,意味レベルの共起関係を抽出するメモリ検索戦略を導入する。
本モデルは感情分布予測のための感情情報表現を学習する。
- 参考スコア(独自算出の注目度): 56.00118641432005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotion recognition from multi-modal physiological and behavioral signals plays a pivotal role in affective computing, yet most existing models remain constrained to the prediction of singular emotions in controlled laboratory settings. Real-world human emotional experiences, by contrast, are often characterized by the simultaneous presence of multiple affective states, spurring recent interest in mixed emotion recognition as an emotion distribution learning problem. Current approaches, however, often neglect the valence consistency and structured correlations inherent among coexisting emotions. To address this limitation, we propose a Memory-guided Prototypical Co-occurrence Learning (MPCL) framework that explicitly models emotion co-occurrence patterns. Specifically, we first fuse multi-modal signals via a multi-scale associative memory mechanism. To capture cross-modal semantic relationships, we construct emotion-specific prototype memory banks, yielding rich physiological and behavioral representations, and employ prototype relation distillation to ensure cross-modal alignment in the latent prototype space. Furthermore, inspired by human cognitive memory systems, we introduce a memory retrieval strategy to extract semantic-level co-occurrence associations across emotion categories. Through this bottom-up hierarchical abstraction process, our model learns affectively informative representations for accurate emotion distribution prediction. Comprehensive experiments on two public datasets demonstrate that MPCL consistently outperforms state-of-the-art methods in mixed emotion recognition, both quantitatively and qualitatively.
- Abstract(参考訳): マルチモーダルな生理的および行動的信号からの感情認識は、感情コンピューティングにおいて重要な役割を果たすが、既存のモデルの多くは、制御された実験室の設定における特異感情の予測に制約されている。
対照的に、現実世界の人間の感情体験は、複数の感情状態が同時に存在していることが特徴であり、感情分布学習問題としての混合感情認識への関心が近年高まっている。
しかし、現在のアプローチは、既存の感情に固有の原子価の一貫性と構造的相関を無視することが多い。
この制限に対処するために,感情共起パターンを明示的にモデル化するメモリ誘導型プロトタイプ共起学習(MPCL)フレームワークを提案する。
具体的には、まずマルチスケール連想記憶機構を用いてマルチモーダル信号を融合する。
クロスモーダルなセマンティックな関係を捉えるため,我々は感情特異的なプロトタイプメモリバンクを構築し,豊かな生理的・行動的表現を導き,プロトタイプ関係の蒸留を用いて,潜在プロトタイプ空間におけるクロスモーダルなアライメントを確保する。
さらに、人間の認知記憶システムにインスパイアされた記憶検索手法を導入し、感情カテゴリー間の意味レベルの共起関係を抽出する。
このボトムアップ階層的抽象化プロセスを通じて,本モデルは感情分布予測のための感情情報表現を学習する。
2つの公開データセットに関する総合的な実験により、MPCLは、定量的にも質的にも、混合感情認識における最先端の手法を一貫して上回っていることが示された。
関連論文リスト
- TiCAL:Typicality-Based Consistency-Aware Learning for Multimodal Emotion Recognition [31.4260327895046]
マルチモーダル感情認識は、視覚、聴覚、テキストなどの不均一なモダリティを統合することで、人間の感情状態を正確に識別することを目的としている。
既存のアプローチは主に、モデルトレーニングを監督するために統一された感情ラベルに依存しており、しばしば重要な課題であるモーダル間感情衝突を見落としている。
我々は,人間の感情知覚の段階的特性に着想を得た,定型性に基づく連続型マルチモーダル感情認識(TiCAL)を提案する。
論文 参考訳(メタデータ) (2025-11-19T03:49:22Z) - HeLo: Heterogeneous Multi-Modal Fusion with Label Correlation for Emotion Distribution Learning [25.95933218051548]
マルチモーダル感情分布学習フレームワークHeLoを提案し,多モーダル感情データにおける不均一性と相補的情報について検討する。
2つの公開データセットに対する実験結果から,感情分布学習における提案手法の優位性を示した。
論文 参考訳(メタデータ) (2025-07-09T13:08:58Z) - Disentangle Identity, Cooperate Emotion: Correlation-Aware Emotional Talking Portrait Generation [63.94836524433559]
DICE-Talkは、感情と同一性を切り離し、類似した特徴を持つ感情を協調するフレームワークである。
我々は、モーダル・アテンションを通して、音声と視覚の感情の手がかりを共同でモデル化するアンタングル型感情埋め込み装置を開発した。
次に,学習可能な感情バンクを用いた相関強化感情調和モジュールを提案する。
第3に、拡散過程における感情の一貫性を強制する感情識別目標を設計する。
論文 参考訳(メタデータ) (2025-04-25T05:28:21Z) - Multi-modal Mood Reader: Pre-trained Model Empowers Cross-Subject Emotion Recognition [23.505616142198487]
我々は、クロスオブジェクト感情認識のための訓練済みモデルに基づくMultimodal Mood Readerを開発した。
このモデルは、大規模データセットの事前学習を通じて、脳波信号の普遍的な潜在表現を学習する。
公開データセットに関する大規模な実験は、クロスオブジェクト感情認識タスクにおけるMood Readerの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-28T14:31:11Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - MEmoBERT: Pre-training Model with Prompt-based Learning for Multimodal
Emotion Recognition [118.73025093045652]
マルチモーダル感情認識のための事前学習モデル textbfMEmoBERT を提案する。
従来の「訓練前、微妙な」パラダイムとは異なり、下流の感情分類タスクをマスク付きテキスト予測として再構成するプロンプトベースの手法を提案する。
提案するMEMOBERTは感情認識性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-27T09:57:00Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。