論文の概要: Dynamic Demonstration Retrieval and Cognitive Understanding for Emotional Support Conversation
- arxiv url: http://arxiv.org/abs/2404.02505v1
- Date: Wed, 3 Apr 2024 06:47:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 18:19:59.145043
- Title: Dynamic Demonstration Retrieval and Cognitive Understanding for Emotional Support Conversation
- Title(参考訳): 感情支援会話における動的説明検索と認知的理解
- Authors: Zhe Xu, Daoyuan Chen, Jiayi Kuang, Zihao Yi, Yaliang Li, Ying Shen,
- Abstract要約: ESCにおける2つの重要な課題は、文脈的関連性および共感的応答生成の促進と認知的理解の促進である。
私たちの仕事は、ESCで提供されるサポートの品質を改善するためにこれらの要素を相乗化するための新しいアプローチです。
私たちのコードは、さらなる研究と開発を促進するために、パブリックアクセスが可能です。
- 参考スコア(独自算出の注目度): 35.49338831485202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotional Support Conversation (ESC) systems are pivotal in providing empathetic interactions, aiding users through negative emotional states by understanding and addressing their unique experiences. In this paper, we tackle two key challenges in ESC: enhancing contextually relevant and empathetic response generation through dynamic demonstration retrieval, and advancing cognitive understanding to grasp implicit mental states comprehensively. We introduce Dynamic Demonstration Retrieval and Cognitive-Aspect Situation Understanding (\ourwork), a novel approach that synergizes these elements to improve the quality of support provided in ESCs. By leveraging in-context learning and persona information, we introduce an innovative retrieval mechanism that selects informative and personalized demonstration pairs. We also propose a cognitive understanding module that utilizes four cognitive relationships from the ATOMIC knowledge source to deepen situational awareness of help-seekers' mental states. Our supportive decoder integrates information from diverse knowledge sources, underpinning response generation that is both empathetic and cognitively aware. The effectiveness of \ourwork is demonstrated through extensive automatic and human evaluations, revealing substantial improvements over numerous state-of-the-art models, with up to 13.79\% enhancement in overall performance of ten metrics. Our codes are available for public access to facilitate further research and development.
- Abstract(参考訳): 感情支援会話(Emotional Support Conversation、ESC)システムは、感情的な相互作用を提供し、ユーザが独自の経験を理解し、対処することによって、ネガティブな感情状態を通じて支援する。
本稿では、動的実演検索による文脈的関連性および共感的応答生成の促進と、暗黙の精神状態を包括的に把握する認知的理解の促進という、ESCにおける2つの重要な課題に取り組む。
本稿では、これらの要素を相乗化してESCが提供するサポートの質を向上させる新しいアプローチである、動的実証検索と認知アスペクト理解(\urwork)を紹介する。
テキスト内学習とペルソナ情報を活用することで,情報とパーソナライズされたデモペアを選択する革新的な検索機構を導入する。
また,ATOMIC知識源からの4つの認知的関係を利用して,支援者の精神状態に対する状況認識を深める認知理解モジュールを提案する。
我々の支援型デコーダは多様な知識源からの情報を統合し、共感的かつ認知的に認識される応答生成の基盤となる。
ウールワークの有効性は、広範囲な自動評価と人的評価によって実証され、多くの最先端モデルよりも大幅に改善され、10つのメトリクス全体のパフォーマンスが最大13.79\%向上した。
私たちのコードは、さらなる研究と開発を促進するために、パブリックアクセスが可能です。
関連論文リスト
- Complex Emotion Recognition System using basic emotions via Facial Expression, EEG, and ECG Signals: a review [1.8310098790941458]
複雑な感情認識システム(CERS)は、表現された基本的な感情、それらの相互関係、そして動的変動の組合せを調べることによって、複雑な感情状態を解読する。
複雑な感情を識別するAIシステムの開発は、感情的コンピューティングに重要な意味を持つ重要な課題となっている。
心電図(ECG)や脳電図(EEG)などの生理的シグナルを取り入れることで、CERSを顕著に増強することができる。
論文 参考訳(メタデータ) (2024-09-09T05:06:10Z) - Cause-Aware Empathetic Response Generation via Chain-of-Thought Fine-Tuning [12.766893968788263]
共感反応生成は、対話の文脈を理解し、表現された感情に反応する能力を持つエージェントを与える。
先行研究は、主に話者の感情的ラベルを活用することに重点を置いているが、感情の重要性が原因の推論を無視している。
そこで我々は,感情と原因をうまく設計したChain-of-Thoughtプロンプトを通じて統合した原因認識型共感生成手法を提案する。
論文 参考訳(メタデータ) (2024-08-21T13:11:03Z) - APTNESS: Incorporating Appraisal Theory and Emotion Support Strategies for Empathetic Response Generation [71.26755736617478]
共感反応生成は、他人の感情を理解するように設計されている。
検索強化と感情支援戦略統合を組み合わせたフレームワークを開発する。
我々の枠組みは認知的・情緒的共感の両面からLLMの共感能力を高めることができる。
論文 参考訳(メタデータ) (2024-07-23T02:23:37Z) - Empathy Through Multimodality in Conversational Interfaces [1.360649555639909]
会話型健康エージェント(CHA)は、感情的なインテリジェンスを組み込むためにテキスト分析を超越するニュアンスなサポートを提供することで、医療を再定義している。
本稿では、豊かなマルチモーダル対話のためのLCMベースのCHAについて紹介する。
マルチモーダルな手がかりを解析することにより、ユーザの感情状態に順応的に解釈し、応答し、文脈的に認識され、共感的に反響する音声応答を提供する。
論文 参考訳(メタデータ) (2024-05-08T02:48:29Z) - K-ESConv: Knowledge Injection for Emotional Support Dialogue Systems via
Prompt Learning [83.19215082550163]
K-ESConvは、感情支援対話システムのための、新しい学習に基づく知識注入手法である。
本研究では,情緒的支援データセットESConvを用いて,外部の専門的情緒的Q&Aフォーラムから知識を抽出し,組み込んだモデルを評価した。
論文 参考訳(メタデータ) (2023-12-16T08:10:10Z) - Facilitating Multi-turn Emotional Support Conversation with Positive
Emotion Elicitation: A Reinforcement Learning Approach [58.88422314998018]
感情支援会話(ESC)は、精神状態を改善するための感情支援(ES)を提供することを目的としている。
既存の作業は、ESへの影響を無視し、感情的なポジティブな移行を導くための明確な目標が欠如している、接地された応答と対応戦略に留まっている。
マルチターンESCを肯定的感情誘発のプロセスとして定式化する新しいパラダイムを導入する。
論文 参考訳(メタデータ) (2023-07-16T09:58:44Z) - Improving Empathetic Dialogue Generation by Dynamically Infusing
Commonsense Knowledge [39.536604198392375]
共感的な会話では、個人は他人に対する共感を表現する。
これまでの研究は主に、話者の感情を利用して共感的な反応を生み出すことに焦点を当ててきた。
本稿では,コモンセンス知識選択のための適応モジュールを組み込んだ共感応答生成手法を提案する。
論文 参考訳(メタデータ) (2023-05-24T10:25:12Z) - CogAlign: Learning to Align Textual Neural Representations to Cognitive
Language Processing Signals [60.921888445317705]
自然言語処理モデルに認知言語処理信号を統合するためのCogAlignアプローチを提案する。
我々は、CogAlignが、パブリックデータセット上の最先端モデルよりも、複数の認知機能で大幅な改善を実現していることを示す。
論文 参考訳(メタデータ) (2021-06-10T07:10:25Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。