論文の概要: Optimizing Psychological Counseling with Instruction-Tuned Large Language Models
- arxiv url: http://arxiv.org/abs/2406.13617v1
- Date: Wed, 19 Jun 2024 15:13:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 19:14:23.532449
- Title: Optimizing Psychological Counseling with Instruction-Tuned Large Language Models
- Title(参考訳): 指導型大規模言語モデルによる心理的コウンセリングの最適化
- Authors: Wenjie Li, Tianyu Sun, Kun Qian, Wenhong Wang,
- Abstract要約: 本稿では,心理カウンセリングにおける大規模言語モデル(LLM)の適用について検討する。
本稿では,共感的,関連性,支援的な応答を提供することで,特定のプロンプトを持つLLMを指導し,その性能を高める方法を提案する。
- 参考スコア(独自算出の注目度): 9.19192059750618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advent of large language models (LLMs) has significantly advanced various fields, including natural language processing and automated dialogue systems. This paper explores the application of LLMs in psychological counseling, addressing the increasing demand for mental health services. We present a method for instruction tuning LLMs with specialized prompts to enhance their performance in providing empathetic, relevant, and supportive responses. Our approach involves developing a comprehensive dataset of counseling-specific prompts, refining them through feedback from professional counselors, and conducting rigorous evaluations using both automatic metrics and human assessments. The results demonstrate that our instruction-tuned model outperforms several baseline LLMs, highlighting its potential as a scalable and accessible tool for mental health support.
- Abstract(参考訳): 大規模言語モデル(LLM)の出現は、自然言語処理や自動対話システムなど、様々な分野を著しく進歩させてきた。
本稿では,心理カウンセリングにおけるLSMの適用について検討し,メンタルヘルスサービスの需要の増加に対処する。
本稿では,共感的,関連性,支援的な応答を提供することで,特定のプロンプトを持つLLMを指導し,その性能を高める方法を提案する。
我々のアプローチでは、カウンセリング固有のプロンプトの包括的なデータセットを作成し、プロのカウンセラーからのフィードバックを通じてそれらを精査し、自動測定と人的評価の両方を用いて厳密な評価を行う。
以上の結果から,我々の指導訓練モデルは,精神保健支援のためのスケーラブルでアクセシブルなツールとしての可能性を強調し,いくつかのベースラインLCMよりも優れていたことが示唆された。
関連論文リスト
- Quantifying AI Psychology: A Psychometrics Benchmark for Large Language Models [57.518784855080334]
大きな言語モデル(LLM)は例外的なタスク解決能力を示しており、人間に似た役割を担っている。
本稿では,LLMにおける心理学的次元を調査するための枠組みとして,心理学的識別,評価データセットのキュレーション,結果検証による評価について述べる。
本研究では,個性,価値観,感情,心の理論,モチベーション,知性の6つの心理学的側面を網羅した総合的心理測定ベンチマークを導入する。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - LLM Questionnaire Completion for Automatic Psychiatric Assessment [49.1574468325115]
大規模言語モデル(LLM)を用いて、非構造的心理面接を、様々な精神科領域と人格領域にまたがる構造化された質問票に変換する。
得られた回答は、うつ病の標準化された精神医学的指標(PHQ-8)とPTSD(PCL-C)の予測に使用される特徴として符号化される。
論文 参考訳(メタデータ) (2024-06-09T09:03:11Z) - Conversational Topic Recommendation in Counseling and Psychotherapy with Decision Transformer and Large Language Models [17.236038165057817]
我々は、会話のカウンセリングにおいてトピックレコメンデーションに決定トランスフォーマーアーキテクチャを利用する。
アーキテクチャはオフラインの強化学習に利用される。
本稿では,大言語モデルを微調整するための合成ラベルとして,我々のモデル出力を利用する新しいシステムを提案する。
論文 参考訳(メタデータ) (2024-05-08T13:55:25Z) - Domain-Specific Improvement on Psychotherapy Chatbot Using Assistant [1.5706140100056272]
我々はAlexanderStreet療法に基づくドメイン特化補助命令を提案する。
心理療法補助指導における事前学習LSMは、最先端LSMの反応ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2024-04-24T19:30:18Z) - Multi-Level Feedback Generation with Large Language Models for Empowering Novice Peer Counselors [43.42054421125617]
フィードバックを提供する既存のメカニズムは、主に人間の監督に依存している。
我々の研究は、大規模言語モデルを活用し、コンテキスト化されたマルチレベルフィードバックを提供し、ピアカウンセラーに力を与えることを目的としている。
論文 参考訳(メタデータ) (2024-03-21T04:23:56Z) - A Novel Nuanced Conversation Evaluation Framework for Large Language Models in Mental Health [42.711913023646915]
大規模言語モデル(LLM)のニュアンス会話能力を評価するための新しい枠組みを提案する。
そこで我々は,心理療法の会話分析文献を用いた文献から開発された,一連の定量的指標を開発した。
GPTモデルやLlamaモデルを含むいくつかの人気のあるフロンティアLCMを、検証されたメンタルヘルスデータセットを通じて評価するために、当社のフレームワークを使用します。
論文 参考訳(メタデータ) (2024-03-08T23:46:37Z) - K-ESConv: Knowledge Injection for Emotional Support Dialogue Systems via
Prompt Learning [83.19215082550163]
K-ESConvは、感情支援対話システムのための、新しい学習に基づく知識注入手法である。
本研究では,情緒的支援データセットESConvを用いて,外部の専門的情緒的Q&Aフォーラムから知識を抽出し,組み込んだモデルを評価した。
論文 参考訳(メタデータ) (2023-12-16T08:10:10Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - Psy-LLM: Scaling up Global Mental Health Psychological Services with
AI-based Large Language Models [3.650517404744655]
Psy-LLMフレームワークは、大規模言語モデルを利用したAIベースのツールである。
我々のフレームワークは、トレーニング済みのLLMと心理学者や広範囲にクロールされた心理学記事の現実のプロフェッショナルQ&Aを組み合わせる。
医療専門家のためのフロントエンドツールとして機能し、即時対応とマインドフルネス活動を提供して患者のストレスを軽減する。
論文 参考訳(メタデータ) (2023-07-22T06:21:41Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。