論文の概要: Supervised Prototypical Contrastive Learning for Emotion Recognition in
Conversation
- arxiv url: http://arxiv.org/abs/2210.08713v1
- Date: Mon, 17 Oct 2022 03:08:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 18:53:54.752835
- Title: Supervised Prototypical Contrastive Learning for Emotion Recognition in
Conversation
- Title(参考訳): 会話における感情認識のための教師付きプロトタイプコントラスト学習
- Authors: Xiaohui Song, Longtao Huang, Hui Xue, Songlin Hu
- Abstract要約: 本稿では,感情認識タスクにおけるSPCL(Supervised Prototypeal Contrastive Learning)の損失を提案する。
授業間距離に基づく難易度測定関数を設計し、極端なサンプルの影響を軽減するためのカリキュラム学習を導入する。
3つの広く使用されているベンチマークで最先端の結果を得る。
- 参考スコア(独自算出の注目度): 25.108385802645163
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Capturing emotions within a conversation plays an essential role in modern
dialogue systems. However, the weak correlation between emotions and semantics
brings many challenges to emotion recognition in conversation (ERC). Even
semantically similar utterances, the emotion may vary drastically depending on
contexts or speakers. In this paper, we propose a Supervised Prototypical
Contrastive Learning (SPCL) loss for the ERC task. Leveraging the Prototypical
Network, the SPCL targets at solving the imbalanced classification problem
through contrastive learning and does not require a large batch size.
Meanwhile, we design a difficulty measure function based on the distance
between classes and introduce curriculum learning to alleviate the impact of
extreme samples. We achieve state-of-the-art results on three widely used
benchmarks. Further, we conduct analytical experiments to demonstrate the
effectiveness of our proposed SPCL and curriculum learning strategy. We release
the code at https://github.com/caskcsg/SPCL.
- Abstract(参考訳): 会話の中で感情を捉えることは、現代の対話システムにおいて重要な役割を果たす。
しかし、感情と意味の弱い相関は、会話における感情認識(ERC)に多くの課題をもたらす。
意味的に類似した発話であっても、感情は文脈や話者によって異なる。
本稿では,ERCタスクに対するSPCL(Supervised Prototypeal Contrastive Learning)損失を提案する。
プロトタイプネットワークを利用することで、SPCLは対照的な学習を通じて不均衡な分類問題を解くことを目標とし、大きなバッチサイズを必要としない。
一方,授業間距離に基づく難易度測定関数を設計し,極端なサンプルの影響を軽減するためのカリキュラム学習を導入する。
3つのベンチマークで最新の結果を得た。
さらに,提案するSPCLとカリキュラム学習戦略の有効性を実証するための分析実験を行った。
コードをhttps://github.com/caskcsg/SPCLでリリースします。
関連論文リスト
- Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - Emotion-Anchored Contrastive Learning Framework for Emotion Recognition in Conversation [23.309174697717374]
会話における感情認識(英: Emotion Recognition in Conversation、ERC)とは、会話の中で各発話の背後にある感情を検出することである。
類似した感情に対してより識別可能な発話表現を生成できる感情認識コントラスト学習フレームワークを提案する。
提案したEACLは、最先端の感情認識性能を達成し、類似した感情に対して優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-29T17:00:55Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - ERNetCL: A novel emotion recognition network in textual conversation
based on curriculum learning strategy [37.41082775317849]
カリキュラム学習戦略(ERNetCL)に基づく新しい感情認識ネットワークを提案する。
提案するERNetCLは主に、時間エンコーダ(TE)、空間エンコーダ(SE)、カリキュラムラーニング(CL)損失からなる。
提案手法は有効であり,他のベースラインモデルに劇的に勝っている。
論文 参考訳(メタデータ) (2023-08-12T03:05:44Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - Cluster-Level Contrastive Learning for Emotion Recognition in
Conversations [13.570186295041644]
会話における感情認識の鍵となる課題は、意味的に類似した感情を区別することである。
SCL(Supervised Contrastive Learning, Supervised Contrastive Learning)は、分類的感情ラベルを高次元意味空間における教師信号やコントラストとして利用する。
本稿では,SCLの高次元空間を3次元の影響表現空間に還元する低次元クラスタレベルコントラスト学習(SCCL)法を提案する。
論文 参考訳(メタデータ) (2023-02-07T14:49:20Z) - Multimodal Emotion Recognition with Modality-Pairwise Unsupervised
Contrastive Loss [80.79641247882012]
マルチモーダル感情認識(MER)のための教師なし特徴学習に着目した。
個別の感情を考慮し、モダリティテキスト、音声、視覚が使用される。
本手法は, 対のモダリティ間のコントラスト損失に基づくもので, MER文学における最初の試みである。
論文 参考訳(メタデータ) (2022-07-23T10:11:24Z) - Hybrid Curriculum Learning for Emotion Recognition in Conversation [10.912215835115063]
本枠組みは,(1)会話レベルカリキュラム(CC)と(2)発話レベルカリキュラム(UC)の2つのカリキュラムから構成される。
提案したモデルに依存しないハイブリッドカリキュラム学習戦略により,既存のERCモデルに対する大幅な性能向上が観測された。
論文 参考訳(メタデータ) (2021-12-22T08:02:58Z) - Reinforcement Learning for Emotional Text-to-Speech Synthesis with
Improved Emotion Discriminability [82.39099867188547]
感情的テキスト音声合成(ETTS)は近年大きく進歩している。
i-ETTSと呼ばれるETTSの新しい対話型トレーニングパラダイムを提案する。
i-ETTSの最適化品質を確保するため、強化学習による反復トレーニング戦略を策定します。
論文 参考訳(メタデータ) (2021-04-03T13:52:47Z) - SpanEmo: Casting Multi-label Emotion Classification as Span-prediction [15.41237087996244]
マルチラベル感情分類をスパンプレディションとした新しいモデル「SpanEmo」を提案する。
入力文中の複数の共存感情をモデル化することに焦点を当てた損失関数を導入する。
SemEval2018マルチラベル感情データを3つの言語セットで実験した結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-01-25T12:11:04Z) - COSMIC: COmmonSense knowledge for eMotion Identification in
Conversations [95.71018134363976]
我々は,心的状態,出来事,因果関係など,常識の異なる要素を取り入れた新しい枠組みであるCOSMICを提案する。
我々は,COSMICが4つのベンチマークの会話データセット上で,感情認識のための最新の結果を実現することを示す。
論文 参考訳(メタデータ) (2020-10-06T15:09:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。