論文の概要: Response Generation for Cognitive Behavioral Therapy with Large Language
Models: Comparative Study with Socratic Questioning
- arxiv url: http://arxiv.org/abs/2401.15966v1
- Date: Mon, 29 Jan 2024 08:53:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 15:26:08.723915
- Title: Response Generation for Cognitive Behavioral Therapy with Large Language
Models: Comparative Study with Socratic Questioning
- Title(参考訳): 大規模言語モデルを用いた認知行動療法の反応生成 : ソクラテス質問との比較
- Authors: Kenta Izumi, Hiroki Tanaka, Kazuhiro Shidara, Hiroyoshi Adachi,
Daisuke Kanayama, Takashi Kudo, and Satoshi Nakamura
- Abstract要約: 本研究では,感情変化,認知的変化,対話品質などの主観的評価に及ぼす生成応答の影響について検討した。
GPT-4を使用すると、気分の変化、共感、その他の対話の質が著しく向上する。
- 参考スコア(独自算出の注目度): 6.400704401007114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dialogue systems controlled by predefined or rule-based scenarios derived
from counseling techniques, such as cognitive behavioral therapy (CBT), play an
important role in mental health apps. Despite the need for responsible
responses, it is conceivable that using the newly emerging LLMs to generate
contextually relevant utterances will enhance these apps. In this study, we
construct dialogue modules based on a CBT scenario focused on conventional
Socratic questioning using two kinds of LLMs: a Transformer-based dialogue
model further trained with a social media empathetic counseling dataset,
provided by Osaka Prefecture (OsakaED), and GPT-4, a state-of-the art LLM
created by OpenAI. By comparing systems that use LLM-generated responses with
those that do not, we investigate the impact of generated responses on
subjective evaluations such as mood change, cognitive change, and dialogue
quality (e.g., empathy). As a result, no notable improvements are observed when
using the OsakaED model. When using GPT-4, the amount of mood change, empathy,
and other dialogue qualities improve significantly. Results suggest that GPT-4
possesses a high counseling ability. However, they also indicate that even when
using a dialogue model trained with a human counseling dataset, it does not
necessarily yield better outcomes compared to scenario-based dialogues. While
presenting LLM-generated responses, including GPT-4, and having them interact
directly with users in real-life mental health care services may raise ethical
issues, it is still possible for human professionals to produce example
responses or response templates using LLMs in advance in systems that use
rules, scenarios, or example responses.
- Abstract(参考訳): 認知行動療法(cbt)のようなカウンセリング技術から派生した、事前定義または規則に基づくシナリオによって制御される対話システムは、メンタルヘルスアプリにおいて重要な役割を果たす。
責任ある応答を必要とするにもかかわらず、新たに登場したLLMを使用してコンテキストに関連のある発話を生成することで、これらのアプリが強化されると考えられる。
本研究では,大阪府(大阪府)が提供するソーシャルメディアの共感的カウンセリングデータセットを用いて,トランスフォーマーに基づく対話モデルと,OpenAIが作成した最先端のLLMであるGPT-4の2種類のLLMを用いて,従来のソクラテス的質問に焦点をあてたCBTシナリオに基づく対話モジュールを構築した。
LLM生成応答を用いたシステムと、そうでないシステムを比較することにより、感情変化、認知変化、対話品質(共感など)などの主観的評価に対する生成応答の影響を調査する。
その結果, 大阪モデルを用いた場合, 顕著な改善は見られなかった。
GPT-4を使用すると、気分の変化、共感、その他の対話の質が著しく向上する。
GPT-4はカウンセリング能力が高いことが示唆された。
しかし、人間のカウンセリングデータセットで訓練された対話モデルを使用しても、シナリオベースの対話に比べて必ずしも良い結果をもたらすとは限らない。
GPT-4を含むLCM生成応答を提示し、実際のメンタルヘルスサービスでユーザーと直接対話させることは倫理的な問題を引き起こす可能性があるが、ルール、シナリオ、サンプル応答を使用するシステムにおいて、人間のプロフェッショナルがLSMを使用してサンプル応答やレスポンステンプレートを作成することは依然として可能である。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Towards Empathetic Conversational Recommender Systems [77.53167131692]
本稿では,共感型会話レコメンデータ(ECR)フレームワークを提案する。
ECRには、感情対応アイテムレコメンデーションと感情対応応答生成という、2つの主要なモジュールが含まれている。
ReDialデータセットの実験は、推奨精度を高め、ユーザの満足度を向上させる上で、我々のフレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2024-08-30T15:43:07Z) - Are Large Language Models Possible to Conduct Cognitive Behavioral Therapy? [13.0263170692984]
大規模言語モデル(LLM)が検証され、心理的補助療法の新たな可能性を提供する。
精神保健の専門家は、LSMを治療に使用することについて多くの懸念を抱いている。
自然言語処理性能に優れた4つのLLM変種を評価した。
論文 参考訳(メタデータ) (2024-07-25T03:01:47Z) - LLM Questionnaire Completion for Automatic Psychiatric Assessment [49.1574468325115]
大規模言語モデル(LLM)を用いて、非構造的心理面接を、様々な精神科領域と人格領域にまたがる構造化された質問票に変換する。
得られた回答は、うつ病の標準化された精神医学的指標(PHQ-8)とPTSD(PCL-C)の予測に使用される特徴として符号化される。
論文 参考訳(メタデータ) (2024-06-09T09:03:11Z) - Can Large Language Models be Used to Provide Psychological Counselling?
An Analysis of GPT-4-Generated Responses Using Role-play Dialogues [0.0]
メンタルヘルスは現代社会にとってますます深刻な課題となっている。
本研究は、専門家カウンセラーを含むロールプレイングシナリオを通じてカウンセリング対話データを収集した。
第三者カウンセラーは、ヒトカウンセラーとGPT-4で生成されたカウンセラーからの反応の適切性を評価した。
論文 参考訳(メタデータ) (2024-02-20T06:05:36Z) - "You tell me": A Dataset of GPT-4-Based Behaviour Change Support Conversations [1.104960878651584]
我々は2つのGPT-4ベースの会話エージェントを用いて、行動変化に関連するテキストベースのユーザインタラクションを含むデータセットを共有する。
このデータセットには、会話データ、ユーザ言語分析、知覚測定、LLM生成ターンに対するユーザフィードバックが含まれる。
論文 参考訳(メタデータ) (2024-01-29T13:54:48Z) - Plug-and-Play Policy Planner for Large Language Model Powered Dialogue
Agents [121.46051697742608]
そこで本稿では,PDPPという言語モデルプラグインを用いて対話問題を整理するための新たな対話ポリシー計画パラダイムを提案する。
具体的には、利用可能な人間の注釈付きデータに対する教師付き微調整を容易にするための新しいトレーニングフレームワークを開発する。
PPDPPは3つの異なるプロアクティブな対話アプリケーションにおいて、既存のアプローチを一貫して、実質的に上回っている。
論文 参考訳(メタデータ) (2023-11-01T03:20:16Z) - Harnessing Large Language Models' Empathetic Response Generation
Capabilities for Online Mental Health Counselling Support [1.9336815376402723]
大規模言語モデル(LLM)は、様々な情報検索や推論タスクで顕著なパフォーマンスを示している。
本研究は,メンタルヘルスカウンセリング環境下での会話において,共感反応を誘発するLLMの能力について検討した。
我々は、ジェネレーティブ・プレトレーニング(GPT)のバージョン3.5とバージョン4、Vicuna FastChat-T5、Pathways Language Model(PaLM)バージョン2、Falcon-7B-Instructの5つのLCMを選択した。
論文 参考訳(メタデータ) (2023-10-12T03:33:06Z) - Prompting and Evaluating Large Language Models for Proactive Dialogues:
Clarification, Target-guided, and Non-collaboration [72.04629217161656]
本研究は, 明瞭化, 目標誘導, 非協調対話の3つの側面に焦点をあてる。
LLMの能動性を高めるために,プロアクティブ・チェーン・オブ・ソート・プロンプト方式を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:49:35Z) - Rethinking the Evaluation for Conversational Recommendation in the Era
of Large Language Models [115.7508325840751]
近年の大規模言語モデル(LLM)の成功は、より強力な対話レコメンデーションシステム(CRS)を開発する大きな可能性を示している。
本稿では,ChatGPTの会話レコメンデーションへの活用について検討し,既存の評価プロトコルが不十分であることを明らかにする。
LLMをベースとしたユーザシミュレータを用いた対話型評価手法iEvaLMを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:12:43Z) - Response-act Guided Reinforced Dialogue Generation for Mental Health
Counseling [25.524804770124145]
本稿では、メンタルヘルスカウンセリング会話のための対話行動誘導応答生成器READERについて述べる。
READERは変換器上に構築されており、次の発話に対する潜在的な対話行為d(t+1)を共同で予測し、適切な応答u(t+1)を生成する。
ベンチマークカウンセリング会話データセットであるHOPE上でREADERを評価する。
論文 参考訳(メタデータ) (2023-01-30T08:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。