論文の概要: Watch the Speakers: A Hybrid Continuous Attribution Network for Emotion
Recognition in Conversation With Emotion Disentanglement
- arxiv url: http://arxiv.org/abs/2309.09799v1
- Date: Mon, 18 Sep 2023 14:18:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 13:12:05.141520
- Title: Watch the Speakers: A Hybrid Continuous Attribution Network for Emotion
Recognition in Conversation With Emotion Disentanglement
- Title(参考訳): watch the speakers: 感情の不一致を伴う会話における感情認識のためのハイブリッド連続帰属ネットワーク
- Authors: Shanglin Lei and Xiaoping Wang and Guanting Dong and Jiang Li and
Yingjian Liu
- Abstract要約: Emotion Recognition in Conversation (ERC) は自然言語処理分野で広く注目を集めている。
既存のERC手法では、コンテキストのモデリングが不十分なため、様々なシナリオへの一般化が困難である。
本稿では,これらの課題に対処するハイブリッド連続帰属ネットワーク(HCAN)について,感情的継続と感情的帰属の観点から紹介する。
- 参考スコア(独自算出の注目度): 8.17164107060944
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Emotion Recognition in Conversation (ERC) has attracted widespread attention
in the natural language processing field due to its enormous potential for
practical applications. Existing ERC methods face challenges in achieving
generalization to diverse scenarios due to insufficient modeling of context,
ambiguous capture of dialogue relationships and overfitting in speaker
modeling. In this work, we present a Hybrid Continuous Attributive Network
(HCAN) to address these issues in the perspective of emotional continuation and
emotional attribution. Specifically, HCAN adopts a hybrid recurrent and
attention-based module to model global emotion continuity. Then a novel
Emotional Attribution Encoding (EAE) is proposed to model intra- and
inter-emotional attribution for each utterance. Moreover, aiming to enhance the
robustness of the model in speaker modeling and improve its performance in
different scenarios, A comprehensive loss function emotional cognitive loss
$\mathcal{L}_{\rm EC}$ is proposed to alleviate emotional drift and overcome
the overfitting of the model to speaker modeling. Our model achieves
state-of-the-art performance on three datasets, demonstrating the superiority
of our work. Another extensive comparative experiments and ablation studies on
three benchmarks are conducted to provided evidence to support the efficacy of
each module. Further exploration of generalization ability experiments shows
the plug-and-play nature of the EAE module in our method.
- Abstract(参考訳): 会話における感情認識(erc)は、実用的応用の可能性が非常に高いことから、自然言語処理の分野で広く注目を集めている。
既存のERC手法は、文脈のモデリング不足、対話関係の曖昧な把握、話者モデリングにおける過度な適合などにより、多様なシナリオへの一般化を達成する上で課題に直面している。
本研究では,これらの課題に対処するハイブリッド連続帰属ネットワーク(HCAN)を,情緒的継続と感情的帰属の観点から提示する。
具体的には、HCANはグローバルな感情の連続性をモデル化するために、ハイブリッドリカレントとアテンションベースのモジュールを採用する。
次に、各発話の感情内および感情間属性をモデル化するために、新しい感情属性符号化(EAE)を提案する。
さらに、話者モデリングにおけるモデルの堅牢性を高め、異なるシナリオにおける性能を向上させることを目的とした、総合的損失関数の感情的認知損失$\mathcal{L}_{\rm EC}$は、感情的ドリフトを緩和し、話者モデリングへのモデルの過度な適合を克服するために提案される。
我々のモデルは3つのデータセットで最先端のパフォーマンスを達成し、作業の優位性を実証する。
3つのベンチマークに関する別の広範な比較実験とアブレーション研究を行い、各モジュールの有効性を支持する証拠を提供する。
一般化能力実験のさらなる探索は,EAEモジュールのプラグアンドプレイ特性を示している。
関連論文リスト
- Robust Facial Reactions Generation: An Emotion-Aware Framework with Modality Compensation [27.2792182180834]
感情認識型モダリティ補償(EMC)フレームワークを提案する。
我々のフレームワークは、欠落したモダリティデータに直面するときのレジリエンスを保証する。
Emotion-Aware Attention (EA)モジュールを通じて、より適切な感情認識反応を生成する。
論文 参考訳(メタデータ) (2024-07-22T17:00:02Z) - BiosERC: Integrating Biography Speakers Supported by LLMs for ERC Tasks [2.9873893715462176]
本研究は,会話における話者特性を調査するBiosERCという新しいフレームワークを紹介する。
本研究では,Large Language Models (LLMs) を用いて,会話中の話者の「生体情報」を抽出する。
提案手法は,3つの有名なベンチマークデータセットを用いて,最先端のSOTA(State-of-the-art)結果を得た。
論文 参考訳(メタデータ) (2024-07-05T06:25:34Z) - Emotion-LLaMA: Multimodal Emotion Recognition and Reasoning with Instruction Tuning [55.127202990679976]
28,618粒の粗粒と4,487粒の細粒のアノテートサンプルを含むMERRデータセットを導入した。
このデータセットは、さまざまなシナリオから学習し、現実のアプリケーションに一般化することを可能にする。
本研究では,感情特異的エンコーダによる音声,視覚,テキスト入力をシームレスに統合するモデルであるEmotion-LLaMAを提案する。
論文 参考訳(メタデータ) (2024-06-17T03:01:22Z) - ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - EmotionIC: emotional inertia and contagion-driven dependency modeling for emotion recognition in conversation [34.24557248359872]
本稿では,ERCタスクに対する感情的慣性・伝染型依存性モデリング手法(EmotionIC)を提案する。
EmotionICは3つの主要コンポーネント、すなわちIDマスク付きマルチヘッド注意(IMMHA)、対話型Gated Recurrent Unit(DiaGRU)、Skip-chain Conditional Random Field(SkipCRF)から構成されている。
実験結果から,提案手法は4つのベンチマークデータセットにおいて,最先端のモデルよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2023-03-20T13:58:35Z) - Leveraging TCN and Transformer for effective visual-audio fusion in
continuous emotion recognition [0.5370906227996627]
本稿では,Valence-Arousal (VA) Estimation Challenge, Expression (Expr) Classification Challenge, Action Unit (AU) Detection Challengeを提案する。
本稿では、時間的畳み込みネットワーク(TCN)とトランスフォーマーを利用して、連続的な感情認識の性能を向上させる新しいマルチモーダル融合モデルを提案する。
論文 参考訳(メタデータ) (2023-03-15T04:15:57Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - TSAM: A Two-Stream Attention Model for Causal Emotion Entailment [50.07800752967995]
CEE(Causal Emotion Entailment)は、会話の発話において感情の背後にある潜在的な原因を発見することを目的としている。
我々は,グローバルビューにおける発話間の相関を捉えるために,複数の発話を同期的に分類する。
対話履歴における話者の感情的影響を効果的にモデル化する2ストリーム注意モデル(TSAM)を提案する。
論文 参考訳(メタデータ) (2022-03-02T02:11:41Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Shapes of Emotions: Multimodal Emotion Recognition in Conversations via
Emotion Shifts [2.443125107575822]
会話における感情認識(ERC)は重要かつ活発な研究課題である。
最近の研究は、ERCタスクに複数のモダリティを使用することの利点を示している。
マルチモーダルERCモデルを提案し,感情シフト成分で拡張する。
論文 参考訳(メタデータ) (2021-12-03T14:39:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。