論文の概要: CauESC: A Causal Aware Model for Emotional Support Conversation
- arxiv url: http://arxiv.org/abs/2401.17755v1
- Date: Wed, 31 Jan 2024 11:30:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 14:52:17.868428
- Title: CauESC: A Causal Aware Model for Emotional Support Conversation
- Title(参考訳): CauESC:感情支援会話のための因果意識モデル
- Authors: Wei Chen, Hengxu Lin, Qun Zhang, Xiaojin Zhang, Xiang Bai, Xuanjing
Huang, Zhongyu Wei
- Abstract要約: 既存のアプローチは、苦痛の感情の原因を無視します。
彼らは、話者間の相互作用における感情的ダイナミクスよりも、探究者自身の精神状態に焦点を当てている。
本稿では、まず、苦痛の感情要因と、その原因によって引き起こされる感情効果を認識する新しいフレームワークCauESCを提案する。
- 参考スコア(独自算出の注目度): 79.4451588204647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotional Support Conversation aims at reducing the seeker's emotional
distress through supportive response. Existing approaches have two limitations:
(1) They ignore the emotion causes of the distress, which is important for
fine-grained emotion understanding; (2) They focus on the seeker's own mental
state rather than the emotional dynamics during interaction between speakers.
To address these issues, we propose a novel framework CauESC, which firstly
recognizes the emotion causes of the distress, as well as the emotion effects
triggered by the causes, and then understands each strategy of verbal grooming
independently and integrates them skillfully. Experimental results on the
benchmark dataset demonstrate the effectiveness of our approach and show the
benefits of emotion understanding from cause to effect and
independent-integrated strategy modeling.
- Abstract(参考訳): Emotional Support Conversation は、支援的反応を通じて探究者の感情的苦痛を軽減することを目的としている。
既存のアプローチには2つの制限がある:(1)苦悩の感情原因を無視し、きめ細かな感情理解に重要である;(2)話者間の対話における感情のダイナミクスよりも、探究者の精神状態に焦点を当てている。
これらの問題に対処するため,我々は,まず苦悩の感情要因と,その原因によって引き起こされる感情効果を認識し,個別に言語グルーミングの戦略を理解し,それらを巧みに統合する新しいフレームワークCauESCを提案する。
ベンチマークデータセットにおける実験結果は,提案手法の有効性を示し,要因から効果への感情理解と独立統合戦略モデリングの利点を示す。
関連論文リスト
- Attention-based Interactive Disentangling Network for Instance-level
Emotional Voice Conversion [81.1492897350032]
感情音声変換(Emotional Voice Conversion)は、非感情成分を保存しながら、与えられた感情に応じて音声を操作することを目的とする。
本稿では,音声変換にインスタンスワイドな感情知識を活用する,意図に基づく対話型ディスタングネットワーク(AINN)を提案する。
論文 参考訳(メタデータ) (2023-12-29T08:06:45Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Empathetic Response Generation via Emotion Cause Transition Graph [29.418144401849194]
共感的対話は、感情的要因(例えば、感情の状態)と認知的要因(例えば、感情の原因)の両方の知覚を必要とする人間のような行動である。
共感対話における2つのターン間の感情原因の自然な遷移を明示的にモデル化する感情原因遷移グラフを提案する。
このグラフでは、次のターンで生じる感情の概念語を、特殊に設計された概念認識デコーダによって予測し、使用し、共感的な応答を生成する。
論文 参考訳(メタデータ) (2023-02-23T05:51:17Z) - CARE: Causality Reasoning for Empathetic Responses by Conditional Graph
Generation [7.745501093146286]
因果推論のための新しいモデル、すなわち条件変分グラフオートエンコーダ(CVGAE)を開発した。
この枠組み全体をCARE(CAusality Reasoning for Empathetic conversation)と命名した。
実験結果から,本手法は最先端性能を実現することが示唆された。
論文 参考訳(メタデータ) (2022-11-01T03:45:26Z) - Empathetic Dialogue Generation via Sensitive Emotion Recognition and
Sensible Knowledge Selection [47.60224978460442]
情緒的対話生成のためのシリアル・アンド・感情知識相互作用(SEEK)法を提案する。
我々は,会話中の感情のダイナミックス(感情の流れ)に敏感な微粒なエンコーディング戦略を用いて,応答の感情依存特性を予測するとともに,知識と感情の相互作用をモデル化し,より敏感な応答を生成する新しい枠組みを設計する。
論文 参考訳(メタデータ) (2022-10-21T03:51:18Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Analysing the Direction of Emotional Influence in Nonverbal Dyadic
Communication: A Facial-Expression Study [6.4985954299863]
本研究は,表情のみに基づくダイアディック対話における感情的影響の方向分析に関するものである。
コンピュータビジョンの能力と因果推論理論を併用して,感情的影響の方向に関する仮説の定量的検証を行う。
論文 参考訳(メタデータ) (2020-12-16T07:52:35Z) - Knowledge Bridging for Empathetic Dialogue Generation [52.39868458154947]
外部知識の不足により、感情的な対話システムは暗黙の感情を知覚し、限られた対話履歴から感情的な対話を学ぶことが困難になる。
本研究では,情緒的対話生成における感情を明確に理解し,表現するために,常識的知識や情緒的語彙的知識などの外部知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。