論文の概要: Multimodal Emotion-Cause Pair Extraction in Conversations
- arxiv url: http://arxiv.org/abs/2110.08020v1
- Date: Fri, 15 Oct 2021 11:30:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 13:25:01.122174
- Title: Multimodal Emotion-Cause Pair Extraction in Conversations
- Title(参考訳): 会話におけるマルチモーダル感情因果対抽出
- Authors: Fanfan Wang, Zixiang Ding, Rui Xia, Zhaoyu Li and Jianfei Yu
- Abstract要約: 会話におけるマルチモーダル感情因果ペア抽出というタスクを導入する。
我々は、テキスト、音声、ビデオに反映された会話から、感情とその関連要因を共同で抽出することを目指している。
予備実験の結果は、会話における感情と原因の両方を発見するためのマルチモーダル情報融合の可能性を示している。
- 参考スコア(独自算出の注目度): 23.95461291718006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotion cause analysis has received considerable attention in recent years.
Previous studies primarily focused on emotion cause extraction from texts in
news articles or microblogs. It is also interesting to discover emotions and
their causes in conversations. As conversation in its natural form is
multimodal, a large number of studies have been carried out on multimodal
emotion recognition in conversations, but there is still a lack of work on
multimodal emotion cause analysis. In this work, we introduce a new task named
Multimodal Emotion-Cause Pair Extraction in Conversations, aiming to jointly
extract emotions and their associated causes from conversations reflected in
multiple modalities (text, audio and video). We accordingly construct a
multimodal conversational emotion cause dataset, Emotion-Cause-in-Friends,
which contains 9,272 multimodal emotion-cause pairs annotated on 13,509
utterances in the sitcom Friends. We finally benchmark the task by establishing
a baseline system that incorporates multimodal features for emotion-cause pair
extraction. Preliminary experimental results demonstrate the potential of
multimodal information fusion for discovering both emotions and causes in
conversations.
- Abstract(参考訳): 近年,感情要因分析が注目されている。
感情に焦点を当てた以前の研究では、ニュース記事やマイクロブログのテキストから感情が抽出される。
会話の中で感情とその原因を発見することも興味深い。
自然な形の会話はマルチモーダルであるので、会話におけるマルチモーダル感情認識に関する多くの研究が行われているが、マルチモーダル感情原因分析に関する作業が不足している。
本研究では,複数のモーダルに反映された会話(テキスト,音声,ビデオ)から感情とその関連要因を共同で抽出することを目的とした,Multimodal Emotion-Cause Pair extract in Conversationsというタスクを導入する。
そこで我々は,Sitecom Friendsの13,509発の発話に,9,272件のマルチモーダル感情を含むマルチモーダル会話感情原因データセットEmotion-Cause-in-Friendsを構築した。
最後に,感情によるペア抽出のためのマルチモーダル機能を組み込んだベースラインシステムを構築し,タスクのベンチマークを行った。
予備実験の結果は、会話における感情と原因の両方を発見するためのマルチモーダル情報融合の可能性を示している。
関連論文リスト
- Think out Loud: Emotion Deducing Explanation in Dialogues [57.90554323226896]
対話における感情推論(Emotion Deducing Explanation in Dialogues)を提案する。
EDENは感情と原因を明確な考え方で認識する。
大規模言語モデル(LLM)が感情や原因をよりよく認識するのに役立ちます。
論文 参考訳(メタデータ) (2024-06-07T08:58:29Z) - SemEval-2024 Task 3: Multimodal Emotion Cause Analysis in Conversations [53.60993109543582]
SemEval-2024 Task 3 "Multimodal Emotion Cause Analysis in Conversations" は、会話からすべての感情とそれに対応する原因を抽出することを目的としている。
異なるモダリティ設定の下では、2つのサブタスクから構成される: 会話におけるテキスト感情因果ペア抽出(TECPE)と会話におけるマルチモーダル感情因果ペア抽出(MECPE)である。
本稿では,タスク,データセット,評価設定について紹介し,トップチームのシステムを要約し,参加者の知見について議論する。
論文 参考訳(メタデータ) (2024-05-19T09:59:00Z) - Samsung Research China-Beijing at SemEval-2024 Task 3: A multi-stage framework for Emotion-Cause Pair Extraction in Conversations [12.095837596104552]
人間とコンピュータの相互作用においては、エージェントは感情を理解することで人間に反応することが不可欠である。
会話におけるマルチモーダル感情因果ペア抽出というタスクは、感情を認識し、因果表現を識別する役割を担っている。
本研究では,感情を生成するための多段階フレームワークを提案し,対象感情から感情因果対を抽出する。
論文 参考訳(メタデータ) (2024-04-25T11:52:21Z) - LastResort at SemEval-2024 Task 3: Exploring Multimodal Emotion Cause Pair Extraction as Sequence Labelling Task [3.489826905722736]
SemEval 2024は会話におけるマルチモーダル感情原因分析のタスクを導入している。
本稿では,この課題を発話ラベリングとシーケンスラベリングの問題として扱うモデルを提案する。
このタスクの公式リーダーボードでは、私たちのアーキテクチャは8位にランクされ、リーダーボードのF1スコアは0.1759でした。
論文 参考訳(メタデータ) (2024-04-02T16:32:49Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Multi-Task Learning Framework for Extracting Emotion Cause Span and
Entailment in Conversations [3.2260643152341095]
本研究では,会話における感情の原因と細部を抽出するニューラルモデルを提案する。
MuTECは、感情、感情の原因、会話の細部を抽出するエンドツーエンドのマルチタスク学習フレームワークである。
論文 参考訳(メタデータ) (2022-11-07T18:14:45Z) - Why Do You Feel This Way? Summarizing Triggers of Emotions in Social
Media Posts [61.723046082145416]
CovidET (Emotions and their Triggers during Covid-19)は、COVID-19に関連する英国のReddit投稿1,900件のデータセットである。
我々は、感情を共同で検出し、感情のトリガーを要約する強力なベースラインを開発する。
分析の結果,コビデットは感情特異的要約における新たな課題と,長文のソーシャルメディア投稿におけるマルチ感情検出の課題が示唆された。
論文 参考訳(メタデータ) (2022-10-22T19:10:26Z) - M3ED: Multi-modal Multi-scene Multi-label Emotional Dialogue Database [139.08528216461502]
マルチモーダルマルチシーンマルチラベル感情対話データセットM3EDを提案する。
M3EDには56の異なるテレビシリーズの990のダイアドの感情対話があり、合計9,082回、24,449発の発声がある。
我々の知る限りでは、M3EDは中国語における最初のマルチモーダル感情対話データセットである。
論文 参考訳(メタデータ) (2022-05-09T06:52:51Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - Multi-Task Learning and Adapted Knowledge Models for Emotion-Cause
Extraction [18.68808042388714]
感情認識と感情原因検出の両方に共同で取り組むソリューションを提案する。
暗黙的に表現された感情を理解する上で,常識的知識が重要な役割を担っていることを考慮し,新しい手法を提案する。
共通センス推論とマルチタスクフレームワークを含む場合,両タスクのパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-06-17T20:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。