論文の概要: Harnessing Large Language Models' Empathetic Response Generation
Capabilities for Online Mental Health Counselling Support
- arxiv url: http://arxiv.org/abs/2310.08017v1
- Date: Thu, 12 Oct 2023 03:33:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 13:03:10.728374
- Title: Harnessing Large Language Models' Empathetic Response Generation
Capabilities for Online Mental Health Counselling Support
- Title(参考訳): オンラインメンタルヘルスカウンセラー支援のための大規模言語モデルの共感応答生成能力の調和
- Authors: Siyuan Brandon Loh, Aravind Sesagiri Raamkumar
- Abstract要約: 大規模言語モデル(LLM)は、様々な情報検索や推論タスクで顕著なパフォーマンスを示している。
本研究は,メンタルヘルスカウンセリング環境下での会話において,共感反応を誘発するLLMの能力について検討した。
我々は、ジェネレーティブ・プレトレーニング(GPT)のバージョン3.5とバージョン4、Vicuna FastChat-T5、Pathways Language Model(PaLM)バージョン2、Falcon-7B-Instructの5つのLCMを選択した。
- 参考スコア(独自算出の注目度): 1.9336815376402723
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable performance across
various information-seeking and reasoning tasks. These computational systems
drive state-of-the-art dialogue systems, such as ChatGPT and Bard. They also
carry substantial promise in meeting the growing demands of mental health care,
albeit relatively unexplored. As such, this study sought to examine LLMs'
capability to generate empathetic responses in conversations that emulate those
in a mental health counselling setting. We selected five LLMs: version 3.5 and
version 4 of the Generative Pre-training (GPT), Vicuna FastChat-T5, Pathways
Language Model (PaLM) version 2, and Falcon-7B-Instruct. Based on a simple
instructional prompt, these models responded to utterances derived from the
EmpatheticDialogues (ED) dataset. Using three empathy-related metrics, we
compared their responses to those from traditional response generation dialogue
systems, which were fine-tuned on the ED dataset, along with human-generated
responses. Notably, we discovered that responses from the LLMs were remarkably
more empathetic in most scenarios. We position our findings in light of
catapulting advancements in creating empathetic conversational systems.
- Abstract(参考訳): 大規模言語モデル(llm)は、様々な情報参照および推論タスクで顕著な性能を示している。
これらの計算システムはChatGPTやBardのような最先端の対話システムを駆動する。
彼らはまた、精神医療の需要が増大する中、比較的調査されていないにもかかわらず、大きな約束を果たす。
そこで本研究では,精神保健カウンセリングにおける会話における共感反応を生成できるllmsの能力について検討した。
我々は、ジェネレーティブ・プレトレーニング(GPT)のバージョン3.5とバージョン4、Vicuna FastChat-T5、Pathways Language Model(PaLM)バージョン2、Falcon-7B-Instructの5つのLCMを選択した。
単純な命令プロンプトに基づいて、これらのモデルはEmpatheticDialogues(ED)データセットから派生した発話に応答した。
3つの共感関連指標を用いて, EDデータセットを微調整した従来の応答生成対話システムと人為的応答を比較検討した。
特に,LLMからの反応は,ほとんどのシナリオにおいて著しく共感的であった。
我々は,共感的会話システム構築における進歩の促進に照らして,この知見を位置づける。
関連論文リスト
- Leveraging Chain of Thought towards Empathetic Spoken Dialogue without Corresponding Question-Answering Data [33.85748258158527]
共感的対話は人間とコンピュータの自然な相互作用に不可欠である。
大規模言語モデル(LLM)は、その強力な能力を活用して対話生成に革命をもたらした。
本稿では,質問応答データの必要性を回避する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-19T04:10:53Z) - Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Emotion-Aware Response Generation Using Affect-Enriched Embeddings with LLMs [0.585143166250719]
本研究は,精神医学的応用における大規模言語モデル(LLM)の感情的・文脈的理解を高めることの課題に対処する。
LLAMA 2、Flan-T5、ChatGPT 3.0、ChatGPT 4.0といった最先端のLLMと、複数の感情レキシコンを統合する新しいフレームワークを導入する。
一次データセットは、カウンセリング・アンド・サイコセラピー・データベースから2000以上の治療セッションの書き起こしを含み、不安、うつ病、トラウマ、中毒に関する議論をカバーしている。
論文 参考訳(メタデータ) (2024-10-02T08:01:05Z) - Optimizing Psychological Counseling with Instruction-Tuned Large Language Models [9.19192059750618]
本稿では,心理カウンセリングにおける大規模言語モデル(LLM)の適用について検討する。
本稿では,共感的,関連性,支援的な応答を提供することで,特定のプロンプトを持つLLMを指導し,その性能を高める方法を提案する。
論文 参考訳(メタデータ) (2024-06-19T15:13:07Z) - Response Generation for Cognitive Behavioral Therapy with Large Language
Models: Comparative Study with Socratic Questioning [6.400704401007114]
本研究では,感情変化,認知的変化,対話品質などの主観的評価に及ぼす生成応答の影響について検討した。
GPT-4を使用すると、気分の変化、共感、その他の対話の質が著しく向上する。
論文 参考訳(メタデータ) (2024-01-29T08:53:41Z) - SoulChat: Improving LLMs' Empathy, Listening, and Comfort Abilities
through Fine-tuning with Multi-turn Empathy Conversations [19.11368665202549]
心理学的なカウンセリングの分野で大きな言語モデルを適用する場合、彼らはしばしば普遍的なアドバイスを提供する。
我々は200万以上のサンプルからなるマルチターン共感的会話データセットを構築した。
複数回対話履歴を用いて微調整すると,LLMの共感能力が著しく向上することを示した。
論文 参考訳(メタデータ) (2023-11-01T03:49:52Z) - BotChat: Evaluating LLMs' Capabilities of Having Multi-Turn Dialogues [72.65163468440434]
本報告では,人間型マルチターンチャットのための既存大規模言語モデルの予備的評価を行う。
そこで我々は,ChatSEEDに基づくマルチターン対話を発話によって生成する大規模言語モデル(LLM)を提案する。
GPT-4は優れた品質の人型多元対話を生成できるが、その性能は著しく上回っている。
論文 参考訳(メタデータ) (2023-10-20T16:53:51Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Prompting and Evaluating Large Language Models for Proactive Dialogues:
Clarification, Target-guided, and Non-collaboration [72.04629217161656]
本研究は, 明瞭化, 目標誘導, 非協調対話の3つの側面に焦点をあてる。
LLMの能動性を高めるために,プロアクティブ・チェーン・オブ・ソート・プロンプト方式を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:49:35Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Few-Shot Bot: Prompt-Based Learning for Dialogue Systems [58.27337673451943]
ごく少数の例を使って会話を学ぶことは、会話型AIにおける大きな課題である。
現在の最良の会話モデルは、良いチャットシャッター(例:BlenderBot)またはゴール指向システム(例:MinTL)である。
グラデーションベースの微調整を必要とせず、学習の唯一の源としていくつかの例を用いるプロンプトベースの数ショット学習を提案する。
論文 参考訳(メタデータ) (2021-10-15T14:36:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。