論文の概要: SoulChat: Improving LLMs' Empathy, Listening, and Comfort Abilities
through Fine-tuning with Multi-turn Empathy Conversations
- arxiv url: http://arxiv.org/abs/2311.00273v1
- Date: Wed, 1 Nov 2023 03:49:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 14:55:19.893514
- Title: SoulChat: Improving LLMs' Empathy, Listening, and Comfort Abilities
through Fine-tuning with Multi-turn Empathy Conversations
- Title(参考訳): SoulChat:マルチターン共感会話による微調整によるLLMの共感、聞き取り、快適性の向上
- Authors: Yirong Chen, Xiaofen Xing, Jingkai Lin, Huimin Zheng, Zhenyu Wang, Qi
Liu, Xiangmin Xu
- Abstract要約: 心理学的なカウンセリングの分野で大きな言語モデルを適用する場合、彼らはしばしば普遍的なアドバイスを提供する。
我々は200万以上のサンプルからなるマルチターン共感的会話データセットを構築した。
複数回対話履歴を用いて微調整すると,LLMの共感能力が著しく向上することを示した。
- 参考スコア(独自算出の注目度): 19.11368665202549
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) have been widely applied in various fields due
to their excellent capability for memorizing knowledge and chain of thought
(CoT). When these language models are applied in the field of psychological
counseling, they often rush to provide universal advice. However, when users
seek psychological support, they need to gain empathy, trust, understanding and
comfort, rather than just reasonable advice. To this end, we constructed a
multi-turn empathetic conversation dataset of more than 2 million samples, in
which the input is the multi-turn conversation context, and the target is
empathetic responses that cover expressions such as questioning, comfort,
recognition, listening, trust, emotional support, etc. Experiments have shown
that the empathy ability of LLMs can be significantly enhanced when finetuning
by using multi-turn dialogue history and responses that are closer to the
expression of a psychological consultant.
- Abstract(参考訳): 大規模言語モデル(LLM)は知識と思考の連鎖(CoT)を記憶する優れた能力のため、様々な分野で広く応用されている。
これらの言語モデルが心理学的カウンセリングの分野に適用されるとき、彼らはしばしば普遍的なアドバイスを提供する。
しかし、ユーザーが心理的支援を求めるとき、単に合理的なアドバイスではなく、共感、信頼、理解、快適さを得る必要がある。
この目的のために,200万以上のサンプルからなるマルチターン共感的会話データセットを構築し,その入力はマルチターン会話コンテキストであり,ターゲットは質問,快適性,認識,聴取,信頼,情緒的支援などの表現をカバーする共感的応答である。
複数回対話履歴と心理コンサルタントの表現に近い反応を用いて微調整を行うと,LLMの共感能力が著しく向上することが実験的に示されている。
関連論文リスト
- Response Generation for Cognitive Behavioral Therapy with Large Language
Models: Comparative Study with Socratic Questioning [6.400704401007114]
本研究では,感情変化,認知的変化,対話品質などの主観的評価に及ぼす生成応答の影響について検討した。
GPT-4を使用すると、気分の変化、共感、その他の対話の質が著しく向上する。
論文 参考訳(メタデータ) (2024-01-29T08:53:41Z) - Think Before You Speak: Cultivating Communication Skills of Large
Language Models via Inner Monologue [80.50660775996535]
大規模言語モデル(LLM)は、流動的で一貫性があり多様な応答を生成する。
LLMには重要な能力がない。
応答生成プロセスには,トピック移行,積極的に質問,概念指導,共感,頻繁な5つのコミュニケーションスキルを付加する。
完全なプロセスは、迅速なエンジニアリングとコンテキスト内学習によって達成される。
論文 参考訳(メタデータ) (2023-11-13T16:19:42Z) - Chain of Empathy: Enhancing Empathetic Response of Large Language Models
Based on Psychotherapy Models [2.874893537471256]
本稿では,心理療法の知見を活かして,大規模言語モデル(LLM)を誘導し,人間の感情状態を理解する新しい方法である「共感の連鎖(CoE)」を提案する。
この方法は認知行動療法(CBT)、弁証的行動療法(DBT)、人中心療法(PCT)、現実療法(RT)など様々な心理療法のアプローチにインスパイアされている。
論文 参考訳(メタデータ) (2023-11-02T02:21:39Z) - Harnessing Large Language Models' Empathetic Response Generation
Capabilities for Online Mental Health Counselling Support [1.9336815376402723]
大規模言語モデル(LLM)は、様々な情報検索や推論タスクで顕著なパフォーマンスを示している。
本研究は,メンタルヘルスカウンセリング環境下での会話において,共感反応を誘発するLLMの能力について検討した。
我々は、ジェネレーティブ・プレトレーニング(GPT)のバージョン3.5とバージョン4、Vicuna FastChat-T5、Pathways Language Model(PaLM)バージョン2、Falcon-7B-Instructの5つのLCMを選択した。
論文 参考訳(メタデータ) (2023-10-12T03:33:06Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using
EmotionBench [87.0089656487486]
我々は,Large Language Models (LLM) の共感能力を評価することを提案する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - Improving Multi-turn Emotional Support Dialogue Generation with
Lookahead Strategy Planning [81.79431311952656]
感情支援のための新しいシステムMultiESCを提案する。
戦略プランニングでは,特定の戦略を使用した後のユーザフィードバックを見積もるルックアヘッドを提案する。
ユーザ状態モデリングにおいて、MultiESCはユーザーの微妙な感情表現を捉え、感情の原因を理解することに重点を置いている。
論文 参考訳(メタデータ) (2022-10-09T12:23:47Z) - Coral: An Approach for Conversational Agents in Mental Health
Applications [0.0]
本稿では,心的健康に役立てることができる生成的共感型オープンドメインロボットの創出について述べる。
我々は、大規模事前学習と共感的会話データを利用して、自然界の反応をより共感的にする。
我々のモデルは共感対話テストセットで最先端の結果を得る。
論文 参考訳(メタデータ) (2021-11-16T15:15:58Z) - Exemplars-guided Empathetic Response Generation Controlled by the
Elements of Human Communication [88.52901763928045]
そこで本稿では, インターロケータへの共感を伝達する, 造形モデルによる細かな構造的特性の解明に先立って, 模範的手法を提案する。
これらの手法は, 自動評価指標と人的評価指標の両方の観点から, 共感的応答品質の大幅な改善をもたらすことを実証的に示す。
論文 参考訳(メタデータ) (2021-06-22T14:02:33Z) - Towards Facilitating Empathic Conversations in Online Mental Health
Support: A Reinforcement Learning Approach [10.19931220479239]
心理学者は、共感が支持的な会話にポジティブな結果をもたらす重要な要素であることを繰り返し示してきた。
最近の研究では、オンラインメンタルヘルスプラットフォームでは、非常に共感的な会話がまれであることが示されています。
低共感の会話投稿を高共感に変えることを目的とした共感的書き換えの新しいタスクを紹介します。
論文 参考訳(メタデータ) (2021-01-19T16:37:58Z) - Towards Persona-Based Empathetic Conversational Models [58.65492299237112]
共感的会話モデルは、多くのドメインにおけるユーザの満足度とタスク結果を改善することが示されている。
心理学において、ペルソナは人格と高い相関関係があることが示され、それによって共感に影響を及ぼす。
本研究では,ペルソナに基づく共感的会話に対する新たな課題を提案し,ペルソナが共感的反応に与える影響に関する最初の経験的研究を示す。
論文 参考訳(メタデータ) (2020-04-26T08:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。