論文の概要: EmoDynamiX: Emotional Support Dialogue Strategy Prediction by Modelling MiXed Emotions and Discourse Dynamics
- arxiv url: http://arxiv.org/abs/2408.08782v2
- Date: Fri, 11 Oct 2024 12:04:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 07:18:07.181383
- Title: EmoDynamiX: Emotional Support Dialogue Strategy Prediction by Modelling MiXed Emotions and Discourse Dynamics
- Title(参考訳): EmoDynamiX:混合感情と談話ダイナミクスをモデル化した感情支援対話戦略予測
- Authors: Chenwei Wan, Matthieu Labeau, Chloé Clavel,
- Abstract要約: EmoDynamiXは、ユーザの微粒な感情と、不均一なグラフを使用してシステム戦略の間の談話ダイナミクスをモデル化し、パフォーマンスと透明性を改善します。
2つのESCデータセットの実験結果から、EmoDynamiXは従来の最先端の手法よりも優れたマージンを持つことが示された。
- 参考スコア(独自算出の注目度): 12.105216351739422
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Designing emotionally intelligent conversational systems to provide comfort and advice to people experiencing distress is a compelling area of research. Recently, with advancements in large language models (LLMs), end-to-end dialogue agents without explicit strategy prediction steps have become prevalent. However, implicit strategy planning lacks transparency, and recent studies show that LLMs' inherent preference bias towards certain socio-emotional strategies hinders the delivery of high-quality emotional support. To address this challenge, we propose decoupling strategy prediction from language generation, and introduce a novel dialogue strategy prediction framework, EmoDynamiX, which models the discourse dynamics between user fine-grained emotions and system strategies using a heterogeneous graph for better performance and transparency. Experimental results on two ESC datasets show EmoDynamiX outperforms previous state-of-the-art methods with a significant margin (better proficiency and lower preference bias). Our approach also exhibits better transparency by allowing backtracing of decision making.
- Abstract(参考訳): 苦痛を経験する人々に快適さとアドバイスを提供するために、感情的にインテリジェントな会話システムを設計することは、魅力的な研究分野である。
近年,大規模言語モデル (LLM) の進歩に伴い,明示的な戦略予測ステップを伴わない対話エージェントが普及している。
しかし、暗黙的な戦略計画には透明性が欠如しており、最近の研究では、特定の社会的感情戦略に対するLLMs固有の嗜好バイアスが、高品質な感情支援の提供を妨げることが示されている。
この課題に対処するために,言語生成から切り離された戦略予測を提案するとともに,ユーザの微粒な感情とヘテロジニアスグラフを用いたシステム戦略間の談話ダイナミクスをモデル化し,パフォーマンスと透明性を向上させる新たな対話戦略予測フレームワークであるEmoDynamiXを導入する。
2つのESCデータセットの実験結果から、EmoDynamiXは従来の最先端手法よりも優れたマージン(習熟度と嗜好バイアスの低下)を示した。
当社のアプローチは,意思決定のバックトレースを可能にすることで,透明性の向上も実現しています。
関連論文リスト
- Dynamic Modality and View Selection for Multimodal Emotion Recognition with Missing Modalities [46.543216927386005]
音声(声)や表情(画像)などの複数のチャンネルは、人間の感情を理解するのに不可欠である。
重要なハードルのひとつは、AIモデルが特定のモダリティの欠如を管理する方法だ。
本研究の中心は,1つのモダリティの欠如に直面した2つの戦略の性能とレジリエンスを評価することである。
論文 参考訳(メタデータ) (2024-04-18T15:18:14Z) - ASEM: Enhancing Empathy in Chatbot through Attention-based Sentiment and
Emotion Modeling [0.0]
本稿では,ユーザの発話の感情状態について,専門家の混在,複数エンコーダを用いた新たなソリューションを提案する。
本稿では,オープンドメインチャットボットの感情分析に基づいて感情分析を行うASEMというエンド・ツー・エンドのモデルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-02-25T20:36:51Z) - Can Large Language Models be Good Emotional Supporter? Mitigating Preference Bias on Emotional Support Conversation [28.74445806009475]
この研究はESConv上での大規模言語モデル(LLM)の結果を分析した。
特定の戦略に対する高い嗜好を示すことは、効果的な感情的支援を妨げている。
その結果,(1) 特定の戦略に対する嗜好の低さは情緒的支援の進行を妨げること,(2) 外部援助は嗜好バイアスの軽減に役立つこと,(3) 既存のLCMだけでは感情的な支持者にはならないこと,などが強調された。
論文 参考訳(メタデータ) (2024-02-20T18:21:32Z) - Knowledge-enhanced Memory Model for Emotional Support Conversation [8.856733707377922]
感情的助詞共会話(MODERN)のための知識強化メモリモデルを提案する。
具体的には、まず、会話の異なる期間の動的感情変化を知覚するために、知識に富んだ対話コンテキストを符号化する。
次に、新しいメモリ強化戦略モデリングモジュールを実装し、戦略カテゴリの背後にあるセマンティックパターンをモデル化する。
論文 参考訳(メタデータ) (2023-10-11T17:51:28Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Improving Multi-turn Emotional Support Dialogue Generation with
Lookahead Strategy Planning [81.79431311952656]
感情支援のための新しいシステムMultiESCを提案する。
戦略プランニングでは,特定の戦略を使用した後のユーザフィードバックを見積もるルックアヘッドを提案する。
ユーザ状態モデリングにおいて、MultiESCはユーザーの微妙な感情表現を捉え、感情の原因を理解することに重点を置いている。
論文 参考訳(メタデータ) (2022-10-09T12:23:47Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - An Attribute-Aligned Strategy for Learning Speech Representation [57.891727280493015]
属性選択機構によってこれらの問題に柔軟に対処できる音声表現を導出する属性整合学習戦略を提案する。
具体的には、音声表現を属性依存ノードに分解する層式表現可変オートエンコーダ(LR-VAE)を提案する。
提案手法は,IDのないSER上での競合性能と,無感情SV上でのより良い性能を実現する。
論文 参考訳(メタデータ) (2021-06-05T06:19:14Z) - Reinforcement Learning for Emotional Text-to-Speech Synthesis with
Improved Emotion Discriminability [82.39099867188547]
感情的テキスト音声合成(ETTS)は近年大きく進歩している。
i-ETTSと呼ばれるETTSの新しい対話型トレーニングパラダイムを提案する。
i-ETTSの最適化品質を確保するため、強化学習による反復トレーニング戦略を策定します。
論文 参考訳(メタデータ) (2021-04-03T13:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。