論文の概要: ASEM: Enhancing Empathy in Chatbot through Attention-based Sentiment and
Emotion Modeling
- arxiv url: http://arxiv.org/abs/2402.16194v1
- Date: Sun, 25 Feb 2024 20:36:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 14:50:47.609517
- Title: ASEM: Enhancing Empathy in Chatbot through Attention-based Sentiment and
Emotion Modeling
- Title(参考訳): ASEM: 意識に基づく感情モデリングによるチャットボットの共感を高める
- Authors: Omama Hamad, Ali Hamdi, Khaled Shaban
- Abstract要約: 本稿では,ユーザの発話の感情状態について,専門家の混在,複数エンコーダを用いた新たなソリューションを提案する。
本稿では,オープンドメインチャットボットの感情分析に基づいて感情分析を行うASEMというエンド・ツー・エンドのモデルアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Effective feature representations play a critical role in enhancing the
performance of text generation models that rely on deep neural networks.
However, current approaches suffer from several drawbacks, such as the
inability to capture the deep semantics of language and sensitivity to minor
input variations, resulting in significant changes in the generated text. In
this paper, we present a novel solution to these challenges by employing a
mixture of experts, multiple encoders, to offer distinct perspectives on the
emotional state of the user's utterance while simultaneously enhancing
performance. We propose an end-to-end model architecture called ASEM that
performs emotion analysis on top of sentiment analysis for open-domain
chatbots, enabling the generation of empathetic responses that are fluent and
relevant. In contrast to traditional attention mechanisms, the proposed model
employs a specialized attention strategy that uniquely zeroes in on sentiment
and emotion nuances within the user's utterance. This ensures the generation of
context-rich representations tailored to the underlying emotional tone and
sentiment intricacies of the text. Our approach outperforms existing methods
for generating empathetic embeddings, providing empathetic and diverse
responses. The performance of our proposed model significantly exceeds that of
existing models, enhancing emotion detection accuracy by 6.2% and lexical
diversity by 1.4%.
- Abstract(参考訳): 効果的な特徴表現は、ディープニューラルネットワークに依存するテキスト生成モデルの性能向上に重要な役割を果たしている。
しかし、現在のアプローチでは、言語の深い意味を捉えることができないことや、小さな入力のバリエーションに敏感なことなど、いくつかの欠点があり、結果として生成されたテキストに大きな変化が生じた。
本稿では,これらの課題に対する新たな解法として,複数のエンコーダを混合して,ユーザの発話の感情的状態の異なる視点を提示し,同時に性能を向上させる手法を提案する。
本稿では,オープンドメインチャットボットの感情分析に基づいて感情分析を行うASEMと呼ばれるエンドツーエンドモデルアーキテクチャを提案する。
従来の注意機構とは対照的に,提案手法では,ユーザの発話中の感情や感情のニュアンスに対して一意的にゼロの注意戦略を用いる。
これにより、テキストの基本的な感情のトーンや感情の複雑さに合わせて、文脈に富んだ表現が生成される。
本手法は, 共感的, 多様な反応を呈し, 共感的埋め込みを生成する既存の手法より優れる。
提案モデルの性能は既存のモデルを大幅に上回り,感情検出精度を6.2%,語彙多様性を1.4%向上させた。
関連論文リスト
- MEMO-Bench: A Multiple Benchmark for Text-to-Image and Multimodal Large Language Models on Human Emotion Analysis [53.012111671763776]
そこで本研究では、7,145枚の肖像画からなる総合的なベンチマークであるMEMO-Benchを紹介した。
以上の結果から,既存のT2Iモデルは負のモデルよりも肯定的な感情を生成するのに効果的であることが示唆された。
MLLMは人間の感情の識別と認識に一定の効果を示すが、人間のレベルの正確さには欠ける。
論文 参考訳(メタデータ) (2024-11-18T02:09:48Z) - Self-supervised Gait-based Emotion Representation Learning from Selective Strongly Augmented Skeleton Sequences [4.740624855896404]
自己教師型歩行に基づく感情表現のための選択的強強化を利用したコントラスト学習フレームワークを提案する。
提案手法はEmotion-Gait (E-Gait) と Emilya のデータセットで検証され, 異なる評価プロトコル下での最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-05-08T09:13:10Z) - Deep Imbalanced Learning for Multimodal Emotion Recognition in
Conversations [15.705757672984662]
会話におけるマルチモーダル感情認識(MERC)は、マシンインテリジェンスにとって重要な開発方向である。
MERCのデータの多くは自然に感情カテゴリーの不均衡な分布を示しており、研究者は感情認識に対する不均衡なデータの負の影響を無視している。
生データにおける感情カテゴリーの不均衡分布に対処するクラス境界拡張表現学習(CBERL)モデルを提案する。
我々は,IEMOCAPおよびMELDベンチマークデータセットの広範な実験を行い,CBERLが感情認識の有効性において一定の性能向上を達成したことを示す。
論文 参考訳(メタデータ) (2023-12-11T12:35:17Z) - REDAffectiveLM: Leveraging Affect Enriched Embedding and
Transformer-based Neural Language Model for Readers' Emotion Detection [3.6678641723285446]
本稿では,REDAffectiveLMと呼ばれる深層学習モデルを用いて,短文文書からの読み手感情検出のための新しい手法を提案する。
コンテクストに特化してリッチ表現に影響を与え, リッチBi-LSTM+Attentionに影響を及ぼすタンデムにおいて, トランスフォーマーに基づく事前学習言語モデルを用いることで, リッチ表現に影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-21T19:28:25Z) - Improving the Generalizability of Text-Based Emotion Detection by
Leveraging Transformers with Psycholinguistic Features [27.799032561722893]
本稿では,両方向長短期記憶(BiLSTM)ネットワークと変換器モデル(BERT,RoBERTa)を併用したテキストベースの感情検出手法を提案する。
提案したハイブリッドモデルでは,標準的なトランスフォーマーベースアプローチと比較して,分布外データへの一般化能力の向上が期待できる。
論文 参考訳(メタデータ) (2022-12-19T13:58:48Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - An Attribute-Aligned Strategy for Learning Speech Representation [57.891727280493015]
属性選択機構によってこれらの問題に柔軟に対処できる音声表現を導出する属性整合学習戦略を提案する。
具体的には、音声表現を属性依存ノードに分解する層式表現可変オートエンコーダ(LR-VAE)を提案する。
提案手法は,IDのないSER上での競合性能と,無感情SV上でのより良い性能を実現する。
論文 参考訳(メタデータ) (2021-06-05T06:19:14Z) - Reinforcement Learning for Emotional Text-to-Speech Synthesis with
Improved Emotion Discriminability [82.39099867188547]
感情的テキスト音声合成(ETTS)は近年大きく進歩している。
i-ETTSと呼ばれるETTSの新しい対話型トレーニングパラダイムを提案する。
i-ETTSの最適化品質を確保するため、強化学習による反復トレーニング戦略を策定します。
論文 参考訳(メタデータ) (2021-04-03T13:52:47Z) - Target Guided Emotion Aware Chat Machine [58.8346820846765]
意味レベルと感情レベルにおける投稿に対する応答の整合性は、人間のような対話を提供する対話システムにとって不可欠である。
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-11-15T01:55:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。