論文の概要: A Survey of Large Language Models in Psychotherapy: Current Landscape and Future Directions
- arxiv url: http://arxiv.org/abs/2502.11095v1
- Date: Sun, 16 Feb 2025 12:18:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:12:58.982294
- Title: A Survey of Large Language Models in Psychotherapy: Current Landscape and Future Directions
- Title(参考訳): 心理療法における大規模言語モデルの検討 : 現在の景観と今後の方向性
- Authors: Hongbin Na, Yining Hua, Zimu Wang, Tao Shen, Beibei Yu, Lilin Wang, Wei Wang, John Torous, Ling Chen,
- Abstract要約: 大規模言語モデル(LLM)は、精神疾患の評価、診断、治療を強化することにより、精神療法における有望な解決策を提供する。
本調査は、精神療法におけるLLM応用の現状を概観する。
本稿では,精神療法の過程を,評価,診断,治療の3つの要素に分類し,各領域における課題と進歩を検討するための新しい概念分類法を提案する。
- 参考スコア(独自算出の注目度): 13.17064228097947
- License:
- Abstract: Mental health remains a critical global challenge, with increasing demand for accessible, effective interventions. Large language models (LLMs) offer promising solutions in psychotherapy by enhancing the assessment, diagnosis, and treatment of mental health conditions through dynamic, context-aware interactions. This survey provides a comprehensive overview of the current landscape of LLM applications in psychotherapy, highlighting the roles of LLMs in symptom detection, severity estimation, cognitive assessment, and therapeutic interventions. We present a novel conceptual taxonomy to organize the psychotherapy process into three core components: assessment, diagnosis, and treatment, and examine the challenges and advancements in each area. The survey also addresses key research gaps, including linguistic biases, limited disorder coverage, and underrepresented therapeutic models. Finally, we discuss future directions to integrate LLMs into a holistic, end-to-end psychotherapy framework, addressing the evolving nature of mental health conditions and fostering more inclusive, personalized care.
- Abstract(参考訳): メンタルヘルスは依然として重要な世界的な課題であり、アクセス可能で効果的な介入の需要が増加している。
大規模言語モデル(LLMs)は、動的、文脈対応の相互作用を通じて精神状態の評価、診断、治療を強化することで、精神療法における有望な解決策を提供する。
本調査は, 精神療法におけるLLM応用の現状を概観し, 症状検出, 重症度推定, 認知評価, 治療介入におけるLLMの役割を明らかにする。
本稿では,精神療法の過程を,評価,診断,治療の3つの要素に分類し,各領域の課題と進歩を検討するための新しい概念分類法を提案する。
調査はまた、言語バイアス、限られた障害カバレッジ、表現不足の治療モデルなど、主要な研究ギャップにも対処している。
最後に,LLMを包括的でエンドツーエンドな心理療法フレームワークに統合し,精神疾患の進化する性質に対処し,より包括的でパーソナライズされたケアを促進するための今後の方向性について論じる。
関連論文リスト
- Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [61.633126163190724]
精神病は、社会的、個人的コストがかなり高い広範囲で不安定な状態である。
近年の人工知能(AI)の進歩は、うつ病、不安障害、双極性障害、統合失調症、外傷後ストレス障害などの病態を認識し、対処するための大きな可能性を秘めている。
データセットやトレーニング済みモデルからの機密データ漏洩のリスクを含むプライバシー上の懸念は、これらのAIシステムを実際の臨床環境にデプロイする上で、依然として重要な障壁である。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - CBT-Bench: Evaluating Large Language Models on Assisting Cognitive Behavior Therapy [67.23830698947637]
認知行動療法(CBT)支援の体系的評価のための新しいベンチマークであるCBT-BENCHを提案する。
我々は, CBT-BENCHにおける3段階の課題を含む: I: 基本的CBT知識獲得, 複数選択質問のタスク; II: 認知的モデル理解, 認知的歪み分類, 主根的信念分類, きめ細かい中核信念分類のタスク; III: 治療的応答生成, CBTセラピーセッションにおける患者音声に対する応答生成のタスク。
実験結果から,LLMはCBT知識のリサイティングに優れるが,複雑な実世界のシナリオでは不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-10-17T04:52:57Z) - Toward Large Language Models as a Therapeutic Tool: Comparing Prompting Techniques to Improve GPT-Delivered Problem-Solving Therapy [6.952909762512736]
そこで本研究では,大規模言語モデル (LLM) を指導するためのプロンプトエンジニアリングの効果について検討する。
本稿では,プロンプトエンジニアリング手法を適切に利用することにより,プロトタイズされた治療を提供するモデルの能力を向上できることを実証する。
論文 参考訳(メタデータ) (2024-08-27T17:25:16Z) - LLM Questionnaire Completion for Automatic Psychiatric Assessment [49.1574468325115]
大規模言語モデル(LLM)を用いて、非構造的心理面接を、様々な精神科領域と人格領域にまたがる構造化された質問票に変換する。
得られた回答は、うつ病の標準化された精神医学的指標(PHQ-8)とPTSD(PCL-C)の予測に使用される特徴として符号化される。
論文 参考訳(メタデータ) (2024-06-09T09:03:11Z) - Chain-of-Interaction: Enhancing Large Language Models for Psychiatric Behavior Understanding by Dyadic Contexts [4.403408362362806]
本稿では,対話型対話による精神科的意思決定支援のための大規模言語モデルを文脈化するための,対話型連鎖促進手法を提案する。
このアプローチにより、大規模言語モデルでは、患者の行動コーディングのためのコーディングスキーム、患者の状態、およびドメイン知識を活用することができる。
論文 参考訳(メタデータ) (2024-03-20T17:47:49Z) - COMPASS: Computational Mapping of Patient-Therapist Alliance Strategies with Language Modeling [14.04866656172336]
心理療法セッションで使用される自然言語から治療作業同盟を推定するための新しい枠組みを提案する。
提案手法は,高度大規模言語モデル(LLM)を用いて心理療法セッションの転写を解析し,それらをワーキングアライアンスインベントリにおけるステートメントの分散表現と比較する。
論文 参考訳(メタデータ) (2024-02-22T16:56:44Z) - Large Language Models in Mental Health Care: a Scoping Review [28.635427491110484]
メンタルヘルスにおける大規模言語モデル(LLM)の統合は、新たな分野である。
アプリケーションの結果を体系的にレビューし、臨床設定の利点と限界を明確にすることが必要である。
本総説は、精神医療におけるLSMの使用について、その効果、課題、将来的な応用の可能性について、総合的に概観することを目的としている。
論文 参考訳(メタデータ) (2024-01-01T17:35:52Z) - Evaluating the Efficacy of Interactive Language Therapy Based on LLM for
High-Functioning Autistic Adolescent Psychological Counseling [1.1780706927049207]
本研究では,高機能自閉症青年に対する対話型言語治療におけるLarge Language Models(LLMs)の有効性について検討した。
LLMは、従来の心理学的カウンセリング手法を強化する新しい機会を提供する。
論文 参考訳(メタデータ) (2023-11-12T07:55:39Z) - Empowering Psychotherapy with Large Language Models: Cognitive
Distortion Detection through Diagnosis of Thought Prompting [82.64015366154884]
本研究では,認知的歪み検出の課題について検討し,思考の早期発見(DoT)を提案する。
DoTは、事実と思考を分離するための主観的評価、思考と矛盾する推論プロセスを引き出すための対照的な推論、認知スキーマを要約するスキーマ分析という3つの段階を通して、患者のスピーチの診断を行う。
実験により、DoTは認知的歪み検出のためのChatGPTよりも大幅に改善され、一方で人間の専門家が承認した高品質な合理性を生成することが示された。
論文 参考訳(メタデータ) (2023-10-11T02:47:21Z) - GDPR Compliant Collection of Therapist-Patient-Dialogues [48.091760741427656]
我々は、欧州連合の一般データプライバシ規則の下で、精神医学クリニックでセラピストと患者との対話の収集を始める際に直面した課題について詳しく述べる。
本稿では、手順の各ステップの概要を述べ、この分野でのさらなる研究を動機付ける潜在的な落とし穴を指摘した。
論文 参考訳(メタデータ) (2022-11-22T15:51:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。