論文の概要: Multi-Task Learning Framework for Extracting Emotion Cause Span and
Entailment in Conversations
- arxiv url: http://arxiv.org/abs/2211.03742v1
- Date: Mon, 7 Nov 2022 18:14:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 15:07:15.030662
- Title: Multi-Task Learning Framework for Extracting Emotion Cause Span and
Entailment in Conversations
- Title(参考訳): 会話における感情の原因を抽出するマルチタスク学習フレームワーク
- Authors: Ashwani Bhat and Ashutosh Modi
- Abstract要約: 本研究では,会話における感情の原因と細部を抽出するニューラルモデルを提案する。
MuTECは、感情、感情の原因、会話の細部を抽出するエンドツーエンドのマルチタスク学習フレームワークである。
- 参考スコア(独自算出の注目度): 3.2260643152341095
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Predicting emotions expressed in text is a well-studied problem in the NLP
community. Recently there has been active research in extracting the cause of
an emotion expressed in text. Most of the previous work has done causal emotion
entailment in documents. In this work, we propose neural models to extract
emotion cause span and entailment in conversations. For learning such models,
we use RECCON dataset, which is annotated with cause spans at the utterance
level. In particular, we propose MuTEC, an end-to-end Multi-Task learning
framework for extracting emotions, emotion cause, and entailment in
conversations. This is in contrast to existing baseline models that use ground
truth emotions to extract the cause. MuTEC performs better than the baselines
for most of the data folds provided in the dataset.
- Abstract(参考訳): テキストで表現された感情を予測することは、NLPコミュニティでよく研究されている問題である。
近年,テキストで表現された感情の原因を抽出する研究が活発に行われている。
以前の作品のほとんどが文書に因果感情を伴っている。
そこで本研究では,会話における感情の原因を抽出するニューラルモデルを提案する。
このようなモデルの学習には、発話レベルで原因スパンでアノテートされたrecconデータセットを使用する。
特に,MuteCは,会話における感情や感情の因果関係を抽出する,エンドツーエンドのマルチタスク学習フレームワークである。
これは、根拠となる真実の感情を使って原因を抽出する既存のベースラインモデルとは対照的である。
MuTECは、データセットで提供されるほとんどのデータフォールドのベースラインよりもパフォーマンスがよい。
関連論文リスト
- Generative Emotion Cause Explanation in Multimodal Conversations [23.39751445330256]
我々は、新しいタスク textbfMultimodal textbfConversation textbfEmotion textbfCause textbfExplanation (MCECE)を提案する。
マルチモーダル会話シナリオにおいて、ターゲット発話に対する感情的原因を詳細に説明することを目的としている。
FAME-Netという新しいアプローチが提案され、ビデオの表情を通して、視覚データを解析し、感情を正確に解釈するLarge Language Models(LLMs)の力を利用する。
論文 参考訳(メタデータ) (2024-11-01T09:16:30Z) - LastResort at SemEval-2024 Task 3: Exploring Multimodal Emotion Cause Pair Extraction as Sequence Labelling Task [3.489826905722736]
SemEval 2024は会話におけるマルチモーダル感情原因分析のタスクを導入している。
本稿では,この課題を発話ラベリングとシーケンスラベリングの問題として扱うモデルを提案する。
このタスクの公式リーダーボードでは、私たちのアーキテクチャは8位にランクされ、リーダーボードのF1スコアは0.1759でした。
論文 参考訳(メタデータ) (2024-04-02T16:32:49Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - ECQED: Emotion-Cause Quadruple Extraction in Dialogs [37.66816413841564]
本稿では,感情に起因した発話対と感情と原因型を検出することを必要とする,感情・因果関係の4次抽出(ECQED)を提案する。
より詳細な感情を導入し,特徴が明らかに対話生成に有効であることを示す。
論文 参考訳(メタデータ) (2023-06-06T19:04:30Z) - Unsupervised Extractive Summarization of Emotion Triggers [56.50078267340738]
我々は、感情を共同で検出し、トリガーを要約できる新しい教師なし学習モデルを開発した。
Emotion-Aware Pagerankと題された私たちのベストアプローチは、外部ソースからの感情情報と言語理解モジュールを組み合わせたものです。
論文 参考訳(メタデータ) (2023-06-02T11:07:13Z) - Chat-Capsule: A Hierarchical Capsule for Dialog-level Emotion Analysis [70.98130990040228]
本稿では,発話レベルと対話レベルの両方の感情とその相互関係をモデル化したコンテキストベースの階層的注意カプセル(Chat-Capsule)モデルを提案する。
Eコマースプラットフォームの顧客サポートから収集したダイアログデータセットでは,ユーザの満足度や感情曲線のカテゴリも予測できる。
論文 参考訳(メタデータ) (2022-03-23T08:04:30Z) - Multimodal Emotion-Cause Pair Extraction in Conversations [23.95461291718006]
会話におけるマルチモーダル感情因果ペア抽出というタスクを導入する。
我々は、テキスト、音声、ビデオに反映された会話から、感情とその関連要因を共同で抽出することを目指している。
予備実験の結果は、会話における感情と原因の両方を発見するためのマルチモーダル情報融合の可能性を示している。
論文 参考訳(メタデータ) (2021-10-15T11:30:24Z) - EMOVIE: A Mandarin Emotion Speech Dataset with a Simple Emotional
Text-to-Speech Model [56.75775793011719]
音声ファイルを含む9,724のサンプルとその感情ラベル付きアノテーションを含むマンダリン感情音声データセットを導入,公開する。
入力として追加の参照音声を必要とするこれらのモデルとは異なり、我々のモデルは入力テキストから直接感情ラベルを予測し、感情埋め込みに基づいてより表現力のある音声を生成することができる。
実験段階では、まず感情分類タスクによってデータセットの有効性を検証し、次に提案したデータセットに基づいてモデルをトレーニングし、一連の主観評価を行う。
論文 参考訳(メタデータ) (2021-06-17T08:34:21Z) - Recognizing Emotion Cause in Conversations [82.88647116730691]
テキストにおける感情の原因を認識することは、NLPにおける基本的な研究領域である。
RECCONというデータセットとの会話で感情の原因を認識するタスクを紹介します。
論文 参考訳(メタデータ) (2020-12-22T03:51:35Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - End-to-end Emotion-Cause Pair Extraction via Learning to Link [18.741585103275334]
感情原因ペア抽出(ECPE)は、文書中の感情とその根本原因を共同で調査することを目的としている。
既存のECPEのアプローチでは、(1)感情と原因の検出、(2)検出された感情と原因のペアリングという2段階の手法が一般的である。
本稿では, 感情, 原因, 感情原因のペアをエンドツーエンドで同時に抽出できるマルチタスク学習モデルを提案する。
論文 参考訳(メタデータ) (2020-02-25T07:49:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。