論文の概要: Emotion Flip Reasoning in Multiparty Conversations
- arxiv url: http://arxiv.org/abs/2306.13959v1
- Date: Sat, 24 Jun 2023 13:22:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 18:02:12.485530
- Title: Emotion Flip Reasoning in Multiparty Conversations
- Title(参考訳): 多人数会話における感情フリップ推論
- Authors: Shivani Kumar, Shubham Dudeja, Md Shad Akhtar, Tanmoy Chakraborty
- Abstract要約: Instigator based Emotion Flip Reasoning (EFR) は、会話の中で話者の感情のフリップの背後にある侵入者を特定することを目的としている。
本報告では,感情心理学に則った基盤構造ERFインスティゲータラベルを含むデータセットであるMELD-Iについて述べる。
我々は,TransformerエンコーダとスタックGRUを利用して対話コンテキストをキャプチャする,TGIFと呼ばれる新しいニューラルアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 27.884015521888458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a conversational dialogue, speakers may have different emotional states
and their dynamics play an important role in understanding dialogue's emotional
discourse. However, simply detecting emotions is not sufficient to entirely
comprehend the speaker-specific changes in emotion that occur during a
conversation. To understand the emotional dynamics of speakers in an efficient
manner, it is imperative to identify the rationale or instigator behind any
changes or flips in emotion expressed by the speaker. In this paper, we explore
the task called Instigator based Emotion Flip Reasoning (EFR), which aims to
identify the instigator behind a speaker's emotion flip within a conversation.
For example, an emotion flip from joy to anger could be caused by an instigator
like threat. To facilitate this task, we present MELD-I, a dataset that
includes ground-truth EFR instigator labels, which are in line with emotional
psychology. To evaluate the dataset, we propose a novel neural architecture
called TGIF, which leverages Transformer encoders and stacked GRUs to capture
the dialogue context, speaker dynamics, and emotion sequence in a conversation.
Our evaluation demonstrates state-of-the-art performance (+4-12% increase in
F1-score) against five baselines used for the task. Further, we establish the
generalizability of TGIF on an unseen dataset in a zero-shot setting.
Additionally, we provide a detailed analysis of the competing models,
highlighting the advantages and limitations of our neural architecture.
- Abstract(参考訳): 会話対話では、話者は異なる感情状態を持ち、そのダイナミクスは対話の感情的談話を理解する上で重要な役割を果たす。
しかし、単に感情を検出するだけでは、会話中に起こる話者固有の感情の変化を完全に理解するには不十分である。
話者の感情のダイナミクスを効果的に理解するためには、話者が表現する感情の変化やフリップの背後にある理性やインスティゲータを特定することが不可欠である。
本稿では,会話中の話者の感情のフリップの背後にあるインスティゲータを特定することを目的とした,Instigator based Emotion Flip Reasoning(EFR)というタスクについて検討する。
例えば、喜びから怒りへの感情の反転は、脅威のような扇動者によって引き起こされる可能性がある。
この作業を容易にするために,感情心理学に則った,地味なERFインスティゲータラベルを含むデータセットMELD-Iを提案する。
このデータセットを評価するために,トランスフォーマーエンコーダと積み重ねられたgrogを使用して対話コンテキスト,話者ダイナミクス,会話中の感情シーケンスをキャプチャする,tgifと呼ばれる新しいニューラルアーキテクチャを提案する。
本評価では,タスクに使用する5つのベースラインに対して,最先端の性能(F1スコアの+4-12%増加)を示す。
さらに、ゼロショット設定において、目に見えないデータセット上でのTGIFの一般化性を確立する。
さらに、競合するモデルの詳細な分析を行い、ニューラルネットワークアーキテクチャの利点と限界を強調します。
関連論文リスト
- Think out Loud: Emotion Deducing Explanation in Dialogues [57.90554323226896]
対話における感情推論(Emotion Deducing Explanation in Dialogues)を提案する。
EDENは感情と原因を明確な考え方で認識する。
大規模言語モデル(LLM)が感情や原因をよりよく認識するのに役立ちます。
論文 参考訳(メタデータ) (2024-06-07T08:58:29Z) - ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Multiscale Contextual Learning for Speech Emotion Recognition in
Emergency Call Center Conversations [4.297070083645049]
本稿では,音声感情認識のためのマルチスケール会話文脈学習手法を提案する。
音声の書き起こしと音響セグメントの両方について,本手法について検討した。
我々のテストによると、過去のトークンから派生したコンテキストは、以下のトークンよりも正確な予測に大きな影響を及ぼす。
論文 参考訳(メタデータ) (2023-08-28T20:31:45Z) - In-the-wild Speech Emotion Conversion Using Disentangled Self-Supervised
Representations and Neural Vocoder-based Resynthesis [15.16865739526702]
本稿では,自己教師ネットワークを用いて発話の語彙的,話者的,感情的な内容を切り離す手法を提案する。
次に、HiFiGANボコーダを用いて、不整合表現をターゲット感情の音声信号に再合成する。
その結果,提案手法は入力音声の感情内容に適度に適応し,対象感情に対して自然な音声を合成できることがわかった。
論文 参考訳(メタデータ) (2023-06-02T21:02:51Z) - Empathetic Dialogue Generation via Sensitive Emotion Recognition and
Sensible Knowledge Selection [47.60224978460442]
情緒的対話生成のためのシリアル・アンド・感情知識相互作用(SEEK)法を提案する。
我々は,会話中の感情のダイナミックス(感情の流れ)に敏感な微粒なエンコーディング戦略を用いて,応答の感情依存特性を予測するとともに,知識と感情の相互作用をモデル化し,より敏感な応答を生成する新しい枠組みを設計する。
論文 参考訳(メタデータ) (2022-10-21T03:51:18Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - Discovering Emotion and Reasoning its Flip in Multi-Party Conversations
using Masked Memory Network and Transformer [16.224961520924115]
感情フリップ推論(EFR)の新たな課題について紹介する。
EFRは、ある時点で感情状態が反転した過去の発話を特定することを目的としている。
後者のタスクに対して,前者およびトランスフォーマーベースのネットワークに対処するためのマスクメモリネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-23T07:42:09Z) - Infusing Multi-Source Knowledge with Heterogeneous Graph Neural Network
for Emotional Conversation Generation [25.808037796936766]
実世界の会話では,マルチソース情報から感情を直感的に知覚する。
感情的会話生成のための異種グラフモデルを提案する。
実験結果は,本モデルがマルチソース知識から感情を効果的に知覚できることを示した。
論文 参考訳(メタデータ) (2020-12-09T06:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。