論文の概要: Multi-label Class Incremental Emotion Decoding with Augmented Emotional Semantics Learning
- arxiv url: http://arxiv.org/abs/2405.20600v1
- Date: Fri, 31 May 2024 03:16:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-03 15:36:24.140877
- Title: Multi-label Class Incremental Emotion Decoding with Augmented Emotional Semantics Learning
- Title(参考訳): Augmented Emotional Semantics Learning を用いたマルチラベルクラスインクリメンタル感情デコーディング
- Authors: Kaicheng Fu, Changde Du, Xiaoyu Chen, Jie Peng, Huiguang He,
- Abstract要約: インクリメンタルな感情デコーディングのための感情意味学習フレームワークを提案する。
具体的には,過去のラベル問題を扱うために,ラベルの曖昧さを伴う感情関係グラフモジュールを設計する。
感情意味学習モジュールは、感情埋め込みを得るためにグラフオートエンコーダで構成される。
- 参考スコア(独自算出の注目度): 20.609772647273374
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Emotion decoding plays an important role in affective human-computer interaction. However, previous studies ignored the dynamic real-world scenario, where human experience a blend of multiple emotions which are incrementally integrated into the model, leading to the multi-label class incremental learning (MLCIL) problem. Existing methods have difficulty in solving MLCIL issue due to notorious catastrophic forgetting caused by partial label problem and inadequate label semantics mining. In this paper, we propose an augmented emotional semantics learning framework for multi-label class incremental emotion decoding. Specifically, we design an augmented emotional relation graph module with label disambiguation to handle the past-missing partial label problem. Then, we leverage domain knowledge from affective dimension space to alleviate future-missing partial label problem by knowledge distillation. Besides, an emotional semantics learning module is constructed with a graph autoencoder to obtain emotion embeddings in order to guide the semantic-specific feature decoupling for better multi-label learning. Extensive experiments on three datasets show the superiority of our method for improving emotion decoding performance and mitigating forgetting on MLCIL problem.
- Abstract(参考訳): 感情の復号化は、感情的な人間とコンピュータの相互作用において重要な役割を果たす。
しかし、従来の研究では、人間による複数の感情のブレンドがモデルにインクリメンタルに統合され、マルチラベルクラスインクリメンタルラーニング(MLCIL)問題に繋がる、動的な現実のシナリオを無視していた。
既存の手法では、部分的なラベル問題と不十分なラベルセマンティクスマイニングに起因する破滅的な忘れ込みが原因で、MLCILの問題を解決するのが困難である。
本稿では,マルチラベルクラスインクリメンタルな感情デコーディングのための感情意味学習フレームワークを提案する。
具体的には,過去のラベル問題に対処するため,ラベルの曖昧さを伴う感情関係グラフモジュールを設計する。
そして, 感性次元空間からのドメイン知識を活用し, 知識蒸留による将来欠落部分ラベル問題を緩和する。
さらに、感情意味学習モジュールをグラフオートエンコーダで構築し、感情埋め込みを取得し、セマンティック固有の特徴分離を誘導し、より優れたマルチラベル学習を実現する。
3つのデータセットに対する大規模な実験により,感情の復号化性能の向上と,MLCIL問題に対する忘れを緩和する手法の優位性が示された。
関連論文リスト
- Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Deep Imbalanced Learning for Multimodal Emotion Recognition in
Conversations [15.705757672984662]
会話におけるマルチモーダル感情認識(MERC)は、マシンインテリジェンスにとって重要な開発方向である。
MERCのデータの多くは自然に感情カテゴリーの不均衡な分布を示しており、研究者は感情認識に対する不均衡なデータの負の影響を無視している。
生データにおける感情カテゴリーの不均衡分布に対処するクラス境界拡張表現学習(CBERL)モデルを提案する。
我々は,IEMOCAPおよびMELDベンチマークデータセットの広範な実験を行い,CBERLが感情認識の有効性において一定の性能向上を達成したことを示す。
論文 参考訳(メタデータ) (2023-12-11T12:35:17Z) - Leveraging Label Correlations in a Multi-label Setting: A Case Study in
Emotion [0.0]
マルチラベル感情認識モデルにおけるラベル相関を利用して感情検出を改善する。
単言語BERTモデルを用いたSemEval 2018 Task 1 E-cにおいて、スペイン語、英語、アラビア語で最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-10-28T02:27:18Z) - Multi-view Multi-label Fine-grained Emotion Decoding from Human Brain
Activity [9.446422699647625]
人間の脳活動からの感情状態の復号は、脳とコンピュータのインターフェースにおいて重要な役割を果たす。
既存の感情復号法には2つの大きな制限がある。
感情の微粒化のための多視点マルチラベルハイブリッドモデルを提案する。
論文 参考訳(メタデータ) (2022-10-26T05:56:54Z) - Multimodal Emotion Recognition with Modality-Pairwise Unsupervised
Contrastive Loss [80.79641247882012]
マルチモーダル感情認識(MER)のための教師なし特徴学習に着目した。
個別の感情を考慮し、モダリティテキスト、音声、視覚が使用される。
本手法は, 対のモダリティ間のコントラスト損失に基づくもので, MER文学における最初の試みである。
論文 参考訳(メタデータ) (2022-07-23T10:11:24Z) - The Emotion is Not One-hot Encoding: Learning with Grayscale Label for
Emotion Recognition in Conversation [0.0]
会話における感情認識(ERC)では、過去の文脈を考慮し、現在の発話の感情を予測する。
グレースケールラベルを構築するためのいくつかの手法を導入し、各手法が感情認識性能を向上させることを確認する。
論文 参考訳(メタデータ) (2022-06-15T08:14:42Z) - MEmoBERT: Pre-training Model with Prompt-based Learning for Multimodal
Emotion Recognition [118.73025093045652]
マルチモーダル感情認識のための事前学習モデル textbfMEmoBERT を提案する。
従来の「訓練前、微妙な」パラダイムとは異なり、下流の感情分類タスクをマスク付きテキスト予測として再構成するプロンプトベースの手法を提案する。
提案するMEMOBERTは感情認識性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-27T09:57:00Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Acted vs. Improvised: Domain Adaptation for Elicitation Approaches in
Audio-Visual Emotion Recognition [29.916609743097215]
一般化された感情認識システムの開発における主な課題は、ラベル付きデータの不足とゴールドスタンダード参照の欠如である。
本研究では,感情誘発アプローチをドメイン知識とみなし,感情発話におけるドメイン伝達学習技術を探求する。
論文 参考訳(メタデータ) (2021-04-05T15:59:31Z) - Facial Emotion Recognition with Noisy Multi-task Annotations [88.42023952684052]
ノイズの多いマルチタスクアノテーションを用いた顔の感情認識の新しい問題を提案する。
この新たな問題に対して,共同分布マッチングの観点からの定式化を提案する。
我々は,感情予測と共同分布学習を可能にする新しい手法を利用する。
論文 参考訳(メタデータ) (2020-10-19T20:39:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。