論文の概要: Enhancing Empathetic and Emotion Support Dialogue Generation with
Prophetic Commonsense Inference
- arxiv url: http://arxiv.org/abs/2311.15316v1
- Date: Sun, 26 Nov 2023 14:35:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 18:22:18.970678
- Title: Enhancing Empathetic and Emotion Support Dialogue Generation with
Prophetic Commonsense Inference
- Title(参考訳): 預言コモンセンス推論による共感・感情支援対話生成の促進
- Authors: Lanrui Wang, Jiangnan Li, Chenxu Yang, Zheng Lin, Weiping Wang
- Abstract要約: 本稿では,コモンセンス知識を推論する革新的なパラダイムである予言コモンセンス推論を提案する。
大規模言語モデルの能力を活用することで、過去と将来の対話のギャップを埋めるために、チューニング可能なモデルをトレーニングします。
共感ダイアログと感情支援会話を用いて行った実験から,提案した予言的コモンセンス推論と対話エージェントを併用することで,その応答の質が著しく向上することが示された。
- 参考スコア(独自算出の注目度): 18.051871143873697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The interest in Empathetic and Emotional Support conversations among the
public has significantly increased. To offer more sensitive and understanding
responses, leveraging commonsense knowledge has become a common strategy to
better understand psychological aspects and causality. However, such
commonsense inferences can be out of context and unable to predict upcoming
dialogue themes, resulting in responses that lack coherence and empathy. To
remedy this issue, we present Prophetic Commonsense Inference, an innovative
paradigm for inferring commonsense knowledge. By harnessing the capabilities of
Large Language Models in understanding dialogue and making commonsense
deductions, we train tunable models to bridge the gap between past and
potential future dialogues. Extensive experiments conducted on
EmpatheticDialogues and Emotion Support Conversation show that equipping
dialogue agents with our proposed prophetic commonsense inference significantly
enhances the quality of their responses.
- Abstract(参考訳): 共感的および感情的支援の会話に対する人々の関心は大幅に高まっている。
より敏感で理解力のある回答を提供するために、常識的な知識を活用することは、心理的側面や因果性をよりよく理解するための共通の戦略となっている。
しかし、そのような常識推論は文脈外であり、今後の対話のテーマを予測できないため、一貫性や共感が欠如している。
本稿では,この問題を解決するために,コモンセンス知識を推論する革新的なパラダイムである予言コモンセンス推論を提案する。
対話の理解と常識的推論に大規模言語モデルの能力を活用することで,過去と将来の対話のギャップを埋めるために,可変モデルの訓練を行う。
共感的ダイアログと感情支援会話に関する広範な実験により,対話エージェントと提案する予言的コモンセンス推論を併用することで,反応の質が著しく向上することが示された。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Data Augmentation of Multi-turn Psychological Dialogue via Knowledge-driven Progressive Thought Prompting [46.919537239016734]
大規模言語モデル(LLM)はマルチターン対話の実装を単純化した。
心理的対話のような低リソース領域で満足なパフォーマンスを実現することは依然として困難です。
心理学的対話を生成するための LLM 指導のための知識駆動型進歩的思考促進手法を提案する。
論文 参考訳(メタデータ) (2024-06-24T12:02:56Z) - An Iterative Associative Memory Model for Empathetic Response Generation [22.68709119989059]
共感的応答生成は、対話発話における認知的状態と感情的状態を理解することを目的としている。
共感応答生成のための反復連想記憶モデル(IAMM)を提案する。
論文 参考訳(メタデータ) (2024-02-28T00:49:06Z) - Think Before You Speak: Cultivating Communication Skills of Large Language Models via Inner Monologue [73.69510478736483]
大規模言語モデル(LLM)は、流動的で一貫性があり多様な応答を生成する。
しかし、それらは重要な能力、コミュニケーションスキルを欠いている。
本稿は,内的モノローグによるLLMのコミュニケーション能力向上を目的としている。
実験の結果,提案したCSIM戦略はバックボーンモデルを改善し,ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-11-13T16:19:42Z) - SoulChat: Improving LLMs' Empathy, Listening, and Comfort Abilities
through Fine-tuning with Multi-turn Empathy Conversations [19.11368665202549]
心理学的なカウンセリングの分野で大きな言語モデルを適用する場合、彼らはしばしば普遍的なアドバイスを提供する。
我々は200万以上のサンプルからなるマルチターン共感的会話データセットを構築した。
複数回対話履歴を用いて微調整すると,LLMの共感能力が著しく向上することを示した。
論文 参考訳(メタデータ) (2023-11-01T03:49:52Z) - Affect Recognition in Conversations Using Large Language Models [9.689990547610664]
影響認識は人間のコミュニケーションにおいて重要な役割を担っている。
本研究では,会話における人間の影響を認識するための言語モデル(LLM)の能力について検討する。
論文 参考訳(メタデータ) (2023-09-22T14:11:23Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Prompting and Evaluating Large Language Models for Proactive Dialogues:
Clarification, Target-guided, and Non-collaboration [72.04629217161656]
本研究は, 明瞭化, 目標誘導, 非協調対話の3つの側面に焦点をあてる。
LLMの能動性を高めるために,プロアクティブ・チェーン・オブ・ソート・プロンプト方式を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:49:35Z) - Knowledge Bridging for Empathetic Dialogue Generation [52.39868458154947]
外部知識の不足により、感情的な対話システムは暗黙の感情を知覚し、限られた対話履歴から感情的な対話を学ぶことが困難になる。
本研究では,情緒的対話生成における感情を明確に理解し,表現するために,常識的知識や情緒的語彙的知識などの外部知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。