論文の概要: Chat-Capsule: A Hierarchical Capsule for Dialog-level Emotion Analysis
- arxiv url: http://arxiv.org/abs/2203.12254v1
- Date: Wed, 23 Mar 2022 08:04:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 14:31:15.570849
- Title: Chat-Capsule: A Hierarchical Capsule for Dialog-level Emotion Analysis
- Title(参考訳): chat-capsule:対話レベルの感情分析のための階層カプセル
- Authors: Yequan Wang, Xuying Meng, Yiyi Liu, Aixin Sun, Yao Wang, Yinhe Zheng,
Minlie Huang
- Abstract要約: 本稿では,発話レベルと対話レベルの両方の感情とその相互関係をモデル化したコンテキストベースの階層的注意カプセル(Chat-Capsule)モデルを提案する。
Eコマースプラットフォームの顧客サポートから収集したダイアログデータセットでは,ユーザの満足度や感情曲線のカテゴリも予測できる。
- 参考スコア(独自算出の注目度): 70.98130990040228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many studies on dialog emotion analysis focus on utterance-level emotion
only. These models hence are not optimized for dialog-level emotion detection,
i.e. to predict the emotion category of a dialog as a whole. More importantly,
these models cannot benefit from the context provided by the whole dialog. In
real-world applications, annotations to dialog could fine-grained, including
both utterance-level tags (e.g. speaker type, intent category, and emotion
category), and dialog-level tags (e.g. user satisfaction, and emotion curve
category). In this paper, we propose a Context-based Hierarchical Attention
Capsule~(Chat-Capsule) model, which models both utterance-level and
dialog-level emotions and their interrelations. On a dialog dataset collected
from customer support of an e-commerce platform, our model is also able to
predict user satisfaction and emotion curve category. Emotion curve refers to
the change of emotions along the development of a conversation. Experiments
show that the proposed Chat-Capsule outperform state-of-the-art baselines on
both benchmark dataset and proprietary dataset. Source code will be released
upon acceptance.
- Abstract(参考訳): 対話感情分析に関する多くの研究は発話レベルの感情のみに焦点を当てている。
これらのモデルは、ダイアログレベルの感情検出、すなわちダイアログ全体の感情カテゴリを予測するために最適化されていない。
さらに重要なのは、これらのモデルはダイアログ全体が提供するコンテキストの恩恵を受けられないことです。
現実世界のアプリケーションでは、発話レベルタグ(話者タイプ、意図カテゴリ、感情カテゴリなど)とダイアログレベルタグ(ユーザの満足度、感情曲線カテゴリなど)の両方を含む、ダイアログへのアノテーションがきめ細やかになる可能性がある。
本稿では,発話レベルと対話レベルの両方の感情とその相互関係をモデル化する,コンテキストベースの階層的注意カプセルモデルを提案する。
eコマースプラットフォームの顧客サポートから収集したダイアログデータセットでは,ユーザの満足度や感情曲線のカテゴリを予測することもできる。
感情曲線(Emotion curve)とは、会話の発達に伴う感情の変化を指す。
実験により、提案するチャットカプセルは、ベンチマークデータセットとプロプライエタリデータセットの両方で最先端のベースラインよりも優れていることが示された。
ソースコードは受理後に公開される。
関連論文リスト
- Towards Empathetic Conversational Recommender Systems [77.53167131692]
本稿では,共感型会話レコメンデータ(ECR)フレームワークを提案する。
ECRには、感情対応アイテムレコメンデーションと感情対応応答生成という、2つの主要なモジュールが含まれている。
ReDialデータセットの実験は、推奨精度を高め、ユーザの満足度を向上させる上で、我々のフレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2024-08-30T15:43:07Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - EmoTwiCS: A Corpus for Modelling Emotion Trajectories in Dutch Customer
Service Dialogues on Twitter [9.2878798098526]
本稿では,情緒トラジェクトリに注釈を付けた9,489件のオランダの顧客サービス対話コーパスであるEmoTwiCSを紹介する。
感情軌跡」という用語は、顧客の体験したきめ細かい感情だけでなく、会話の前に起きる出来事や人間の操作者による反応も指している。
論文 参考訳(メタデータ) (2023-10-10T11:31:11Z) - Multi-turn Dialogue Comprehension from a Topic-aware Perspective [70.37126956655985]
本稿では,話題認識の観点から,マルチターン対話をモデル化することを提案する。
対話文のセグメント化アルゴリズムを用いて、対話文を教師なしの方法でトピック集中フラグメントに分割する。
また,トピックセグメントを処理要素として扱う新しいモデルとして,トピック認識デュアルアテンションマッチング(TADAM)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T11:03:55Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Affective Visual Dialog: A Large-Scale Benchmark for Emotional Reasoning Based on Visually Grounded Conversations [31.707018753687098]
本稿では,視覚的な会話における感情の形成を理解するためのテストベッドとして,Affective Visual Dialogを紹介した。
この課題には,対話型質問回答,対話型感情予測,感情説明生成という3つのスキルが含まれる。
私たちの重要な貢献は、AffectVisDialと呼ばれる大規模なデータセットの収集です。
論文 参考訳(メタデータ) (2023-08-30T22:50:32Z) - Think Twice: A Human-like Two-stage Conversational Agent for Emotional Response Generation [16.659457455269127]
感情対話生成のための2段階対話エージェントを提案する。
まず,感情アノテートされた対話コーパスを使わずに訓練された対話モデルを用いて,文脈意味に合致するプロトタイプ応答を生成する。
第二に、第一段階のプロトタイプは共感仮説で制御可能な感情精錬器によって修正される。
論文 参考訳(メタデータ) (2023-01-12T10:03:56Z) - Generating Empathetic Responses with a Large Scale Dialog Dataset [0.76146285961466]
既存のモデルは、応答生成を導くために事前に定義された感情情報を直接組み込むか、応答感情を決定する決定論的ルールを使用する。
6000以上の人的評価インスタンスのベースラインと比較して,マルチターン共感ダイアログモデルの構築方法を示す。
論文 参考訳(メタデータ) (2021-05-14T13:45:40Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。