論文の概要: EmotionIC: Emotional Inertia and Contagion-driven Dependency Modelling
for Emotion Recognition in Conversation
- arxiv url: http://arxiv.org/abs/2303.11117v2
- Date: Wed, 22 Mar 2023 17:48:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 11:13:14.476300
- Title: EmotionIC: Emotional Inertia and Contagion-driven Dependency Modelling
for Emotion Recognition in Conversation
- Title(参考訳): EmotionIC:会話における感情認識のための感情慣性と感染駆動依存モデル
- Authors: Yingjian Liu, Jiang Li, Xiaoping Wang, Zhigang Zeng
- Abstract要約: 本稿では,感情認識のための感情慣性・伝染(Emotional Inertia and Contagion, EmotionIC)によって駆動される依存性モデリングへの新たなアプローチを提案する。
提案手法は,4つのベンチマークデータセットにおいて,最先端モデルよりも大幅に優れる。
- 参考スコア(独自算出の注目度): 34.79183160091127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotion Recognition in Conversation (ERC) has attracted growing attention in
recent years as a result of the advancement and implementation of
human-computer interface technologies. However, previous approaches to modeling
global and local context dependencies lost the diversity of dependency
information and do not take the context dependency into account at the
classification level. In this paper, we propose a novel approach to dependency
modeling driven by Emotional Inertia and Contagion (EmotionIC) for
conversational emotion recognition at the feature extraction and classification
levels. At the feature extraction level, our designed Identity Masked
Multi-head Attention (IM-MHA) captures the identity-based long-distant context
in the dialogue to contain the diverse influence of different participants and
construct the global emotional atmosphere, while the devised Dialogue-based
Gate Recurrent Unit (DialogGRU) that aggregates the emotional tendencies of
dyadic dialogue is applied to refine the contextual features with inter- and
intra-speaker dependencies. At the classification level, by introducing skip
connections in Conditional Random Field (CRF), we elaborate the Skip-chain CRF
(SkipCRF) to capture the high-order dependencies within and between speakers,
and to emulate the emotional flow of distant participants. Experimental results
show that our method can significantly outperform the state-of-the-art models
on four benchmark datasets. The ablation studies confirm that our modules can
effectively model emotional inertia and contagion.
- Abstract(参考訳): 近年,人間とコンピュータのインターフェース技術の発展と実装により,会話における感情認識(ERC)が注目されている。
しかし、グローバルおよびローカルなコンテキスト依存をモデル化する以前のアプローチは、依存関係情報の多様性を失い、コンテキスト依存を分類レベルで考慮しなかった。
本稿では,特徴抽出と分類レベルでの会話的感情認識のための,感情的慣性と伝染(感情的)によって駆動される依存モデルに対する新しいアプローチを提案する。
特徴抽出レベルにおいて、設計したIM-MHA(Identity Masked Multi-head Attention)は、異なる参加者の多様な影響を包含し、グローバルな情緒的雰囲気を構築するために、対話におけるアイデンティティベースの長距離コンテキストをキャプチャし、ダイアログベースのゲートリカレントユニット(DialogGRU)は、ダイアログによる対話の感情的傾向を集約し、話者間および話者間の依存関係で文脈的特徴を洗練させる。
分類レベルでは、条件付きランダムフィールド(CRF)にスキップ接続を導入することにより、スキップチェーンCRF(SkipCRF)を精査し、話者内および話者間の高次依存関係を捕捉し、遠隔参加者の感情の流れをエミュレートする。
実験の結果,本手法は4つのベンチマークデータセットにおいて,最先端モデルを大幅に上回ることができることがわかった。
アブレーション研究は、我々のモジュールが感情の慣性や伝染を効果的にモデル化できることを確認した。
関連論文リスト
- Enhancing Emotion Recognition in Conversation through Emotional Cross-Modal Fusion and Inter-class Contrastive Learning [40.101313334772016]
会話における感情認識の目的は、文脈情報に基づいて発話の感情カテゴリーを特定することである。
従来のERC法は、クロスモーダル核融合のための単純な接続に依存していた。
本稿では,ベクトル接続に基づくモーダル融合感情予測ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-28T07:22:30Z) - ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Watch the Speakers: A Hybrid Continuous Attribution Network for Emotion
Recognition in Conversation With Emotion Disentanglement [8.17164107060944]
Emotion Recognition in Conversation (ERC) は自然言語処理分野で広く注目を集めている。
既存のERC手法では、コンテキストのモデリングが不十分なため、様々なシナリオへの一般化が困難である。
本稿では,これらの課題に対処するハイブリッド連続帰属ネットワーク(HCAN)について,感情的継続と感情的帰属の観点から紹介する。
論文 参考訳(メタデータ) (2023-09-18T14:18:16Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - CFN-ESA: A Cross-Modal Fusion Network with Emotion-Shift Awareness for Dialogue Emotion Recognition [34.24557248359872]
会話における感情認識のための感情シフト認識型クロスモーダルフュージョンネットワーク(CFN-ESA)を提案する。
CFN-ESAは、ユニモーダルエンコーダ(RUME)、クロスモーダルエンコーダ(ACME)、感情シフトモジュール(LESM)からなる。
論文 参考訳(メタデータ) (2023-07-28T09:29:42Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Shapes of Emotions: Multimodal Emotion Recognition in Conversations via
Emotion Shifts [2.443125107575822]
会話における感情認識(ERC)は重要かつ活発な研究課題である。
最近の研究は、ERCタスクに複数のモダリティを使用することの利点を示している。
マルチモーダルERCモデルを提案し,感情シフト成分で拡張する。
論文 参考訳(メタデータ) (2021-12-03T14:39:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。