論文の概要: Cluster-Level Contrastive Learning for Emotion Recognition in
Conversations
- arxiv url: http://arxiv.org/abs/2302.03508v1
- Date: Tue, 7 Feb 2023 14:49:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 16:06:32.680942
- Title: Cluster-Level Contrastive Learning for Emotion Recognition in
Conversations
- Title(参考訳): 会話における感情認識のためのクラスタレベルコントラスト学習
- Authors: Kailai Yang, Tianlin Zhang, Hassan Alhuzali, Sophia Ananiadou
- Abstract要約: 会話における感情認識の鍵となる課題は、意味的に類似した感情を区別することである。
SCL(Supervised Contrastive Learning, Supervised Contrastive Learning)は、分類的感情ラベルを高次元意味空間における教師信号やコントラストとして利用する。
本稿では,SCLの高次元空間を3次元の影響表現空間に還元する低次元クラスタレベルコントラスト学習(SCCL)法を提案する。
- 参考スコア(独自算出の注目度): 13.570186295041644
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A key challenge for Emotion Recognition in Conversations (ERC) is to
distinguish semantically similar emotions. Some works utilise Supervised
Contrastive Learning (SCL) which uses categorical emotion labels as supervision
signals and contrasts in high-dimensional semantic space. However, categorical
labels fail to provide quantitative information between emotions. ERC is also
not equally dependent on all embedded features in the semantic space, which
makes the high-dimensional SCL inefficient. To address these issues, we propose
a novel low-dimensional Supervised Cluster-level Contrastive Learning (SCCL)
method, which first reduces the high-dimensional SCL space to a
three-dimensional affect representation space Valence-Arousal-Dominance (VAD),
then performs cluster-level contrastive learning to incorporate measurable
emotion prototypes. To help modelling the dialogue and enriching the context,
we leverage the pre-trained knowledge adapters to infuse linguistic and factual
knowledge. Experiments show that our method achieves new state-of-the-art
results with 69.81% on IEMOCAP, 65.7% on MELD, and 62.51% on DailyDialog
datasets. The analysis also proves that the VAD space is not only suitable for
ERC but also interpretable, with VAD prototypes enhancing its performance and
stabilising the training of SCCL. In addition, the pre-trained knowledge
adapters benefit the performance of the utterance encoder and SCCL. Our code is
available at: https://github.com/SteveKGYang/SCCL
- Abstract(参考訳): 会話における感情認識の鍵となる課題は、意味的に類似した感情を区別することである。
SCL(Supervised Contrastive Learning, Supervised Contrastive Learning)は、分類的感情ラベルを高次元意味空間における教師信号やコントラストとして利用する。
しかし、分類ラベルは感情間の定量的情報を提供しない。
ERCは意味空間に埋め込まれた全ての特徴にも等しく依存せず、これは高次元のSCLを非効率にする。
これらの問題に対処するために,まず高次元のSCL空間を3次元の感情表現空間に還元し,評価可能な感情プロトタイプを組み込むために,クラスタレベルのコントラスト学習を行う,新しい低次元クラスタレベルのコントラスト学習(SCCL)手法を提案する。
対話のモデル化と文脈の充実を支援するために,事前学習した知識アダプタを活用し,言語的および事実的知識を注入する。
実験の結果,IEMOCAPは69.81%,MELDは65.7%,DailyDialogデータセットは62.51%であった。
この分析は、VAD空間がERCに適合するだけでなく、解釈可能であることを示し、VADプロトタイプはその性能を高め、SCCLのトレーニングを安定化させた。
さらに、事前学習した知識アダプタは、発話エンコーダとSCCLの性能を向上する。
私たちのコードは、https://github.com/SteveKGYang/SCCLで利用可能です。
関連論文リスト
- Text-Video Retrieval with Global-Local Semantic Consistent Learning [122.15339128463715]
我々は,シンプルで効果的なグローバル局所意味的一貫性学習(GLSCL)を提案する。
GLSCLは、テキストビデオ検索のためのモダリティをまたいだ潜在共有セマンティクスを活用する。
本手法はSOTAと同等の性能を実現し,計算コストの約220倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-05-21T11:59:36Z) - Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - Language-Driven Visual Consensus for Zero-Shot Semantic Segmentation [114.72734384299476]
本稿では,言語駆動型ビジュアルコンセンサス(LDVC)アプローチを提案する。
クラス埋め込みを、その離散的で抽象的な性質からアンカーとして活用し、クラス埋め込みに向けて視覚的特徴を操る。
我々の手法は、目に見えないクラスに対するセグメンテーションモデルの能力を大幅に向上させる。
論文 参考訳(メタデータ) (2024-03-13T11:23:55Z) - SSLCL: An Efficient Model-Agnostic Supervised Contrastive Learning
Framework for Emotion Recognition in Conversations [20.856739541819056]
会話における感情認識(ERC)は、自然言語処理コミュニティの中で急速に進化している課題である。
We propose a efficient and model-agnostic SCL framework named Supervised Sample-Label Contrastive Learning with Soft-HGR Maximal correlation (SSLCL)。
浅い多層パーセプトロンを通して、離散ラベルを密度の高い埋め込みに投影することで、ラベル表現を活用する新しい視点を導入する。
論文 参考訳(メタデータ) (2023-10-25T14:41:14Z) - ERNetCL: A novel emotion recognition network in textual conversation
based on curriculum learning strategy [37.41082775317849]
カリキュラム学習戦略(ERNetCL)に基づく新しい感情認識ネットワークを提案する。
提案するERNetCLは主に、時間エンコーダ(TE)、空間エンコーダ(SE)、カリキュラムラーニング(CL)損失からなる。
提案手法は有効であり,他のベースラインモデルに劇的に勝っている。
論文 参考訳(メタデータ) (2023-08-12T03:05:44Z) - Supervised Adversarial Contrastive Learning for Emotion Recognition in
Conversations [24.542445315345464]
本稿では,クラススプレッドの構造化表現を教師付きで学習するためのフレームワークを提案する。
ラベルレベルの機能の一貫性を効果的に活用し、クラス内でのきめ細かい機能を維持することができる。
CATを用いたフレームワークでは,ラベル一貫性とコンテキストローバスト特性を学習するためのシーケンスベースSACL-LSTMを開発した。
論文 参考訳(メタデータ) (2023-06-02T12:52:38Z) - TagCLIP: Improving Discrimination Ability of Open-Vocabulary Semantic Segmentation [53.974228542090046]
対照的に、CLIP(Contrastive Language- Image Pre-Training)は、最近、ピクセルレベルのゼロショット学習タスクにおいて大きな可能性を示している。
CLIPのテキストとパッチの埋め込みを利用してセマンティックマスクを生成する既存のアプローチは、しばしば目に見えないクラスから入力ピクセルを誤識別する。
この問題に対処するためにTagCLIP(Trusty-aware guideed CLIP)を提案する。
論文 参考訳(メタデータ) (2023-04-15T12:52:23Z) - Supervised Prototypical Contrastive Learning for Emotion Recognition in
Conversation [25.108385802645163]
本稿では,感情認識タスクにおけるSPCL(Supervised Prototypeal Contrastive Learning)の損失を提案する。
授業間距離に基づく難易度測定関数を設計し、極端なサンプルの影響を軽減するためのカリキュラム学習を導入する。
3つの広く使用されているベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2022-10-17T03:08:23Z) - Integrating Language Guidance into Vision-based Deep Metric Learning [78.18860829585182]
埋め込み空間として意味的類似性を符号化した距離空間を学習することを提案する。
これらの空間は、トレーニング中に見られるもの以外のクラスに転送可能であるべきである。
これにより、学習された埋め込み空間は不完全な意味的コンテキストを符号化し、クラス間の意味的関係を誤って表現する。
論文 参考訳(メタデータ) (2022-03-16T11:06:50Z) - An Attribute-Aligned Strategy for Learning Speech Representation [57.891727280493015]
属性選択機構によってこれらの問題に柔軟に対処できる音声表現を導出する属性整合学習戦略を提案する。
具体的には、音声表現を属性依存ノードに分解する層式表現可変オートエンコーダ(LR-VAE)を提案する。
提案手法は,IDのないSER上での競合性能と,無感情SV上でのより良い性能を実現する。
論文 参考訳(メタデータ) (2021-06-05T06:19:14Z) - Contrastive Unsupervised Learning for Speech Emotion Recognition [22.004507213531102]
音声感情認識(SER)は、より自然な人間と機械のコミュニケーションを可能にする重要な技術である。
コントラスト予測符号化 (cpc) 法はラベルなしのデータセットから有意な表現を学習できることを示す。
論文 参考訳(メタデータ) (2021-02-12T06:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。