論文の概要: COSMIC: COmmonSense knowledge for eMotion Identification in
Conversations
- arxiv url: http://arxiv.org/abs/2010.02795v1
- Date: Tue, 6 Oct 2020 15:09:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 07:04:23.615415
- Title: COSMIC: COmmonSense knowledge for eMotion Identification in
Conversations
- Title(参考訳): COSMIC:会話におけるeMotion Identificationのためのコモンセンス知識
- Authors: Deepanway Ghosal, Navonil Majumder, Alexander Gelbukh, Rada Mihalcea,
Soujanya Poria
- Abstract要約: 我々は,心的状態,出来事,因果関係など,常識の異なる要素を取り入れた新しい枠組みであるCOSMICを提案する。
我々は,COSMICが4つのベンチマークの会話データセット上で,感情認識のための最新の結果を実現することを示す。
- 参考スコア(独自算出の注目度): 95.71018134363976
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper, we address the task of utterance level emotion recognition in
conversations using commonsense knowledge. We propose COSMIC, a new framework
that incorporates different elements of commonsense such as mental states,
events, and causal relations, and build upon them to learn interactions between
interlocutors participating in a conversation. Current state-of-the-art methods
often encounter difficulties in context propagation, emotion shift detection,
and differentiating between related emotion classes. By learning distinct
commonsense representations, COSMIC addresses these challenges and achieves new
state-of-the-art results for emotion recognition on four different benchmark
conversational datasets. Our code is available at
https://github.com/declare-lab/conv-emotion.
- Abstract(参考訳): 本稿では,コモンセンス知識を用いた会話における発話レベルの感情認識の課題に対処する。
我々は、心的状態、出来事、因果関係など、常識の異なる要素を取り入れた新しいフレームワークであるCOSMICを提案し、会話に参加する対話者間の相互作用を学習する。
現在の最先端の手法は、文脈の伝播、感情の変化の検出、関連する感情のクラス間の差別化においてしばしば困難に直面する。
異なるコモンセンス表現を学習することで、COSMICはこれらの課題に対処し、4つの異なるベンチマークの会話データセット上で感情認識のための新しい最先端の結果を達成する。
私たちのコードはhttps://github.com/declare-lab/conv-emotionで利用可能です。
関連論文リスト
- Emotion and Intent Joint Understanding in Multimodal Conversation: A Benchmarking Dataset [74.74686464187474]
Emotion and Intent Joint Understanding in Multimodal Conversation (MC-EIU)は、マルチモーダルな会話履歴に現れる意味情報をデコードすることを目的としている。
MC-EIUは多くのヒューマン・コンピュータ・インタフェースのテクノロジーを実現している。
MC-EIUデータセットは,7つの感情カテゴリー,9つの意図カテゴリ,3つのモダリティ,すなわちテキスト,音響,視覚的内容,および英語とマンダリンの2つの言語を特徴とする。
論文 参考訳(メタデータ) (2024-07-03T01:56:00Z) - Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Mimicking the Thinking Process for Emotion Recognition in Conversation
with Prompts and Paraphrasing [26.043447749659478]
複雑な因子をモデル化する際の思考過程を模倣する新しい枠組みを提案する。
我々はまず,会話のコンテキストを履歴指向のプロンプトで理解し,対象発話の前者からの情報を選択的に収集する。
次に、話者の背景を経験指向のプロンプトでモデル化し、すべての会話から類似した発話を検索する。
論文 参考訳(メタデータ) (2023-06-11T06:36:19Z) - deep learning of segment-level feature representation for speech emotion
recognition in conversations [9.432208348863336]
そこで本稿では,意図的文脈依存と話者感応的相互作用をキャプチャする対話型音声感情認識手法を提案する。
まず、事前訓練されたVGGishモデルを用いて、個々の発話におけるセグメントベース音声表現を抽出する。
第2に、注意的双方向リカレントユニット(GRU)は、文脈に敏感な情報をモデル化し、話者内および話者間依存関係を共同で探索する。
論文 参考訳(メタデータ) (2023-02-05T16:15:46Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - Topic-Driven and Knowledge-Aware Transformer for Dialogue Emotion
Detection [24.67719513300731]
上記の課題に対処するトピック駆動の知識認識変換器を提案する。
まず、トピック検出に特化した追加レイヤを持つトピック拡張言語モデル(LM)を設計する。
トランスフォーマーベースのエンコーダデコーダアーキテクチャは、トピック情報とコモンセンス情報を融合し、感情ラベルシーケンス予測を行う。
論文 参考訳(メタデータ) (2021-06-02T10:57:44Z) - AdCOFE: Advanced Contextual Feature Extraction in Conversations for
emotion classification [0.29360071145551075]
提案したAdCOFE(Advanced Contextual Feature extract)モデルはこれらの問題に対処する。
会話データセットにおける感情認識の実験は、AdCOFEが会話中の感情のキャプチャに有益であることを示しています。
論文 参考訳(メタデータ) (2021-04-09T17:58:19Z) - Discovering Emotion and Reasoning its Flip in Multi-Party Conversations
using Masked Memory Network and Transformer [16.224961520924115]
感情フリップ推論(EFR)の新たな課題について紹介する。
EFRは、ある時点で感情状態が反転した過去の発話を特定することを目的としている。
後者のタスクに対して,前者およびトランスフォーマーベースのネットワークに対処するためのマスクメモリネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-23T07:42:09Z) - Knowledge Bridging for Empathetic Dialogue Generation [52.39868458154947]
外部知識の不足により、感情的な対話システムは暗黙の感情を知覚し、限られた対話履歴から感情的な対話を学ぶことが困難になる。
本研究では,情緒的対話生成における感情を明確に理解し,表現するために,常識的知識や情緒的語彙的知識などの外部知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。