論文の概要: Watch the Speakers: A Hybrid Continuous Attribution Network for Emotion
Recognition in Conversation With Emotion Disentanglement
- arxiv url: http://arxiv.org/abs/2309.09799v1
- Date: Mon, 18 Sep 2023 14:18:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 13:12:05.141520
- Title: Watch the Speakers: A Hybrid Continuous Attribution Network for Emotion
Recognition in Conversation With Emotion Disentanglement
- Title(参考訳): watch the speakers: 感情の不一致を伴う会話における感情認識のためのハイブリッド連続帰属ネットワーク
- Authors: Shanglin Lei and Xiaoping Wang and Guanting Dong and Jiang Li and
Yingjian Liu
- Abstract要約: Emotion Recognition in Conversation (ERC) は自然言語処理分野で広く注目を集めている。
既存のERC手法では、コンテキストのモデリングが不十分なため、様々なシナリオへの一般化が困難である。
本稿では,これらの課題に対処するハイブリッド連続帰属ネットワーク(HCAN)について,感情的継続と感情的帰属の観点から紹介する。
- 参考スコア(独自算出の注目度): 8.17164107060944
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Emotion Recognition in Conversation (ERC) has attracted widespread attention
in the natural language processing field due to its enormous potential for
practical applications. Existing ERC methods face challenges in achieving
generalization to diverse scenarios due to insufficient modeling of context,
ambiguous capture of dialogue relationships and overfitting in speaker
modeling. In this work, we present a Hybrid Continuous Attributive Network
(HCAN) to address these issues in the perspective of emotional continuation and
emotional attribution. Specifically, HCAN adopts a hybrid recurrent and
attention-based module to model global emotion continuity. Then a novel
Emotional Attribution Encoding (EAE) is proposed to model intra- and
inter-emotional attribution for each utterance. Moreover, aiming to enhance the
robustness of the model in speaker modeling and improve its performance in
different scenarios, A comprehensive loss function emotional cognitive loss
$\mathcal{L}_{\rm EC}$ is proposed to alleviate emotional drift and overcome
the overfitting of the model to speaker modeling. Our model achieves
state-of-the-art performance on three datasets, demonstrating the superiority
of our work. Another extensive comparative experiments and ablation studies on
three benchmarks are conducted to provided evidence to support the efficacy of
each module. Further exploration of generalization ability experiments shows
the plug-and-play nature of the EAE module in our method.
- Abstract(参考訳): 会話における感情認識(erc)は、実用的応用の可能性が非常に高いことから、自然言語処理の分野で広く注目を集めている。
既存のERC手法は、文脈のモデリング不足、対話関係の曖昧な把握、話者モデリングにおける過度な適合などにより、多様なシナリオへの一般化を達成する上で課題に直面している。
本研究では,これらの課題に対処するハイブリッド連続帰属ネットワーク(HCAN)を,情緒的継続と感情的帰属の観点から提示する。
具体的には、HCANはグローバルな感情の連続性をモデル化するために、ハイブリッドリカレントとアテンションベースのモジュールを採用する。
次に、各発話の感情内および感情間属性をモデル化するために、新しい感情属性符号化(EAE)を提案する。
さらに、話者モデリングにおけるモデルの堅牢性を高め、異なるシナリオにおける性能を向上させることを目的とした、総合的損失関数の感情的認知損失$\mathcal{L}_{\rm EC}$は、感情的ドリフトを緩和し、話者モデリングへのモデルの過度な適合を克服するために提案される。
我々のモデルは3つのデータセットで最先端のパフォーマンスを達成し、作業の優位性を実証する。
3つのベンチマークに関する別の広範な比較実験とアブレーション研究を行い、各モジュールの有効性を支持する証拠を提供する。
一般化能力実験のさらなる探索は,EAEモジュールのプラグアンドプレイ特性を示している。
関連論文リスト
- Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - EmotionIC: Emotional Inertia and Contagion-Driven Dependency Modeling
for Emotion Recognition in Conversation [37.41082775317849]
情緒的慣性・伝染(Emotional Inertia and Contagion, EmotionIC)による依存モデリングの新しいアプローチを提案する。
EmotionICは3つの主要コンポーネントから構成されており、Identity Masked Multi-Head Attention (IMMHA), Dialogue-based Gated Recurrent Unit (DiaGRU), Skip-chain Random Field (SkipCRF)である。
論文 参考訳(メタデータ) (2023-03-20T13:58:35Z) - Leveraging TCN and Transformer for effective visual-audio fusion in
continuous emotion recognition [0.5370906227996627]
本稿では,Valence-Arousal (VA) Estimation Challenge, Expression (Expr) Classification Challenge, Action Unit (AU) Detection Challengeを提案する。
本稿では、時間的畳み込みネットワーク(TCN)とトランスフォーマーを利用して、連続的な感情認識の性能を向上させる新しいマルチモーダル融合モデルを提案する。
論文 参考訳(メタデータ) (2023-03-15T04:15:57Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - Contextual Information and Commonsense Based Prompt for Emotion
Recognition in Conversation [14.651642872901496]
会話における感情認識(Emotion Recognition in conversation,ERC)は、ある会話における発話ごとの感情を検出することを目的としている。
近年のERCモデルは、事前学習と微調整のパラダイムを取り入れた事前学習言語モデル(PLM)を活用して、優れた性能を実現している。
本稿では,命令モデルと言語モデル(LM)チューニングの新しいパラダイムを取り入れた新しいERCモデルCISPERを提案する。
論文 参考訳(メタデータ) (2022-07-27T02:34:05Z) - TSAM: A Two-Stream Attention Model for Causal Emotion Entailment [50.07800752967995]
CEE(Causal Emotion Entailment)は、会話の発話において感情の背後にある潜在的な原因を発見することを目的としている。
我々は,グローバルビューにおける発話間の相関を捉えるために,複数の発話を同期的に分類する。
対話履歴における話者の感情的影響を効果的にモデル化する2ストリーム注意モデル(TSAM)を提案する。
論文 参考訳(メタデータ) (2022-03-02T02:11:41Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Shapes of Emotions: Multimodal Emotion Recognition in Conversations via
Emotion Shifts [2.443125107575822]
会話における感情認識(ERC)は重要かつ活発な研究課題である。
最近の研究は、ERCタスクに複数のモダリティを使用することの利点を示している。
マルチモーダルERCモデルを提案し,感情シフト成分で拡張する。
論文 参考訳(メタデータ) (2021-12-03T14:39:04Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Target Guided Emotion Aware Chat Machine [58.8346820846765]
意味レベルと感情レベルにおける投稿に対する応答の整合性は、人間のような対話を提供する対話システムにとって不可欠である。
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-11-15T01:55:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。