論文の概要: Chain of Empathy: Enhancing Empathetic Response of Large Language Models
Based on Psychotherapy Models
- arxiv url: http://arxiv.org/abs/2311.04915v2
- Date: Thu, 14 Dec 2023 01:30:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-16 03:43:01.143155
- Title: Chain of Empathy: Enhancing Empathetic Response of Large Language Models
Based on Psychotherapy Models
- Title(参考訳): 共感の連鎖--精神療法モデルに基づく大規模言語モデルの共感応答の増強
- Authors: Yoon Kyung Lee, Inju Lee, Minjung Shin, Seoyeon Bae, Sowon Hahn
- Abstract要約: 本稿では,心理療法の知見を活かして,大規模言語モデル(LLM)を誘導し,人間の感情状態を理解する新しい方法である「共感の連鎖(CoE)」を提案する。
この方法は認知行動療法(CBT)、弁証的行動療法(DBT)、人中心療法(PCT)、現実療法(RT)など様々な心理療法のアプローチにインスパイアされている。
- 参考スコア(独自算出の注目度): 2.874893537471256
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a novel method, the Chain of Empathy (CoE) prompting, that
utilizes insights from psychotherapy to induce Large Language Models (LLMs) to
reason about human emotional states. This method is inspired by various
psychotherapy approaches including Cognitive Behavioral Therapy (CBT),
Dialectical Behavior Therapy (DBT), Person Centered Therapy (PCT), and Reality
Therapy (RT), each leading to different patterns of interpreting clients'
mental states. LLMs without reasoning generated predominantly exploratory
responses. However, when LLMs used CoE reasoning, we found a more comprehensive
range of empathetic responses aligned with the different reasoning patterns of
each psychotherapy model. The CBT based CoE resulted in the most balanced
generation of empathetic responses. The findings underscore the importance of
understanding the emotional context and how it affects human and AI
communication. Our research contributes to understanding how psychotherapeutic
models can be incorporated into LLMs, facilitating the development of
context-specific, safer, and empathetic AI.
- Abstract(参考訳): 本稿では,心理療法の知見を活かして,大規模言語モデル(LLM)を誘導し,人間の感情状態を理解する新しい方法である共感の連鎖(CoE)を提案する。
この方法は、認知行動療法(CBT)、弁証的行動療法(DBT)、人中心療法(PCT)、現実療法(RT)といった様々な心理療法のアプローチにインスパイアされ、それぞれがクライアントの精神状態を解釈する様々なパターンへと導かれる。
推論のないLLMは、主に探索的な応答を生み出した。
しかし, LLMがCoE推論を用いた場合, それぞれの心理療法モデルの異なる推論パターンに合わせた, より包括的な共感反応が認められた。
CBTをベースとしたCoEは最もバランスの取れた共感反応を生み出した。
この調査結果は、感情的文脈を理解することの重要性と、それが人間とAIコミュニケーションにどのように影響するかを強調している。
我々の研究は、精神療法モデルをLLMに組み込む方法の理解に寄与し、文脈固有の、より安全で共感的なAIの開発を促進する。
関連論文リスト
- COMPASS: Computational Mapping of Patient-Therapist Alliance Strategies
with Language Modeling [14.753147070569653]
心理療法セッションで使用される自然言語から治療作業同盟を推定するための新しい枠組みを提案する。
提案手法は,高度な大規模言語モデルを用いて心理療法セッションの書き起こしを分析し,それらをワーキングアライアンスインベントリにおけるステートメントの分散表現と比較する。
論文 参考訳(メタデータ) (2024-02-22T16:56:44Z) - LLM Agents for Psychology: A Study on Gamified Assessments [71.08193163042107]
心理的な測定は、精神健康、自己理解、そして個人の発達に不可欠である。
心理学ゲームAgenT(サイコガト)は、信頼性、収束妥当性、差別的妥当性などの心理学的指標において統計的に有意な卓越性を達成している。
論文 参考訳(メタデータ) (2024-02-19T18:00:30Z) - Illuminate: A novel approach for depression detection with explainable
analysis and proactive therapy using prompt engineering [0.0]
本稿では,GPT-4(Generative Pre-trained Transformer 4),Llama 2 chat,およびGeminiを用いた抑うつ検出・治療のための新しいパラダイムを提案する。
LLMは、うつ病の診断、説明、治療介入を提案する特別なプロンプトで微調整されている。
論文 参考訳(メタデータ) (2024-02-05T06:08:06Z) - Evaluating the Efficacy of Interactive Language Therapy Based on LLM for
High-Functioning Autistic Adolescent Psychological Counseling [1.1780706927049207]
本研究では,高機能自閉症青年に対する対話型言語治療におけるLarge Language Models(LLMs)の有効性について検討した。
LLMは、従来の心理学的カウンセリング手法を強化する新しい機会を提供する。
論文 参考訳(メタデータ) (2023-11-12T07:55:39Z) - SoulChat: Improving LLMs' Empathy, Listening, and Comfort Abilities
through Fine-tuning with Multi-turn Empathy Conversations [19.11368665202549]
心理学的なカウンセリングの分野で大きな言語モデルを適用する場合、彼らはしばしば普遍的なアドバイスを提供する。
我々は200万以上のサンプルからなるマルチターン共感的会話データセットを構築した。
複数回対話履歴を用いて微調整すると,LLMの共感能力が著しく向上することを示した。
論文 参考訳(メタデータ) (2023-11-01T03:49:52Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using
EmotionBench [87.0089656487486]
我々は,Large Language Models (LLM) の共感能力を評価することを提案する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - NLP meets psychotherapy: Using predicted client emotions and
self-reported client emotions to measure emotional coherence [44.82634301507483]
感情経験と感情表現の一貫性は、顧客にとって重要であると考えられる。
セラピーにおける感情の主観的経験と感情表現の心電図について検討した研究はない。
本研究は、トランスフォーマーに基づく感情認識モデルから感情予測を用いて感情コヒーレンスを研究するエンド・ツー・エンドのアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-22T14:28:41Z) - Automated Quality Assessment of Cognitive Behavioral Therapy Sessions
Through Highly Contextualized Language Representations [34.670548892766625]
認知行動療法(Cognitive Behavioral Therapy, CBT)という,特定の心理療法の行動自動スコアリングモデルを提案する。
このモデルは高い解釈可能性を達成するためにマルチタスクで訓練される。
BERTベースの表現は、利用可能な治療メタデータでさらに拡張され、関連する非言語的コンテキストを提供し、一貫したパフォーマンス改善につながります。
論文 参考訳(メタデータ) (2021-02-23T09:22:29Z) - MET: Multimodal Perception of Engagement for Telehealth [52.54282887530756]
ビデオから人間のエンゲージメントレベルを知覚する学習ベースアルゴリズムMETを提案する。
我々はメンタルヘルス患者のエンゲージメント検出のための新しいデータセットMEDICAをリリースした。
論文 参考訳(メタデータ) (2020-11-17T15:18:38Z) - Towards Persona-Based Empathetic Conversational Models [58.65492299237112]
共感的会話モデルは、多くのドメインにおけるユーザの満足度とタスク結果を改善することが示されている。
心理学において、ペルソナは人格と高い相関関係があることが示され、それによって共感に影響を及ぼす。
本研究では,ペルソナに基づく共感的会話に対する新たな課題を提案し,ペルソナが共感的反応に与える影響に関する最初の経験的研究を示す。
論文 参考訳(メタデータ) (2020-04-26T08:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。