論文の概要: EmoCaps: Emotion Capsule based Model for Conversational Emotion
Recognition
- arxiv url: http://arxiv.org/abs/2203.13504v1
- Date: Fri, 25 Mar 2022 08:42:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 14:09:07.227066
- Title: EmoCaps: Emotion Capsule based Model for Conversational Emotion
Recognition
- Title(参考訳): EmoCaps:会話感情認識のための感情カプセルベースモデル
- Authors: Zaijing Li, Fengxiao Tang, Ming Zhao, Yusen Zhu
- Abstract要約: 会話中の感情認識(ERC)は、話者の状態を分析し、会話中の感情を識別することを目的としている。
ERCにおける最近の研究は文脈モデリングに焦点を当てているが、文脈的感情傾向の表現は無視されている。
Emoformerと呼ばれる新しい構造は、異なるモーダルから複数のモーダル感情ベクトルを抽出し、それらを文ベクトルで融合して感情カプセルにする。
- 参考スコア(独自算出の注目度): 2.359022633145476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotion recognition in conversation (ERC) aims to analyze the speaker's state
and identify their emotion in the conversation. Recent works in ERC focus on
context modeling but ignore the representation of contextual emotional
tendency. In order to extract multi-modal information and the emotional
tendency of the utterance effectively, we propose a new structure named
Emoformer to extract multi-modal emotion vectors from different modalities and
fuse them with sentence vector to be an emotion capsule. Furthermore, we design
an end-to-end ERC model called EmoCaps, which extracts emotion vectors through
the Emoformer structure and obtain the emotion classification results from a
context analysis model. Through the experiments with two benchmark datasets,
our model shows better performance than the existing state-of-the-art models.
- Abstract(参考訳): 会話中の感情認識(ERC)は、話者の状態を分析し、会話中の感情を識別することを目的としている。
ERCにおける最近の研究は文脈モデリングに焦点を当てているが、文脈的感情傾向の表現は無視されている。
マルチモーダル情報と発話の感情傾向を効果的に抽出するために,異なるモーダルから多モーダル感情ベクトルを抽出し,文ベクトルを融合して感情カプセルとするEmoformerという構造を提案する。
さらに、EmoCapsと呼ばれるエンドツーエンドのERCモデルを設計し、Emoformer構造を通して感情ベクトルを抽出し、文脈分析モデルから感情分類結果を得る。
2つのベンチマークデータセットによる実験を通じて、既存の最先端モデルよりも優れたパフォーマンスを示す。
関連論文リスト
- ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - Speech Synthesis with Mixed Emotions [77.05097999561298]
異なる感情の音声サンプル間の相対的な差を測定する新しい定式化を提案する。
次に、私たちの定式化を、シーケンスからシーケンスまでの感情的なテキストから音声へのフレームワークに組み込む。
実行時に、感情属性ベクトルを手動で定義し、所望の感情混合を生成するためにモデルを制御する。
論文 参考訳(メタデータ) (2022-08-11T15:45:58Z) - Shapes of Emotions: Multimodal Emotion Recognition in Conversations via
Emotion Shifts [2.443125107575822]
会話における感情認識(ERC)は重要かつ活発な研究課題である。
最近の研究は、ERCタスクに複数のモダリティを使用することの利点を示している。
マルチモーダルERCモデルを提案し,感情シフト成分で拡張する。
論文 参考訳(メタデータ) (2021-12-03T14:39:04Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Emotion-Regularized Conditional Variational Autoencoder for Emotional
Response Generation [39.392929591449885]
本稿では,感情対応型条件変分オートエンコーダ(Emo-CVAE)モデルを提案する。
実験の結果,エモ-CVAEモデルは従来のCVAEモデルよりも情報的かつ構造化された潜在空間を学習できることがわかった。
論文 参考訳(メタデータ) (2021-04-18T13:53:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。