論文の概要: Aligning Large Language Models for Enhancing Psychiatric Interviews through Symptom Delineation and Summarization
- arxiv url: http://arxiv.org/abs/2403.17428v1
- Date: Tue, 26 Mar 2024 06:50:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 16:26:20.309946
- Title: Aligning Large Language Models for Enhancing Psychiatric Interviews through Symptom Delineation and Summarization
- Title(参考訳): 症状記述と要約による精神科面接促進のための大規模言語モデルの調整
- Authors: Jae-hee So, Joonhwan Chang, Eunji Kim, Junho Na, JiYeon Choi, Jy-yong Sohn, Byung-Hoon Kim, Sang Hui Chu,
- Abstract要約: 本研究は,精神科面接に大規模言語モデルを適用するという新たな分野に寄与する。
我々は、北朝鮮の亡命者からのカウンセリングデータを、外傷的な出来事や精神的な健康問題で分析する。
実験結果から, LLM は症状記述タスクと要約タスクの両方において高い性能が得られることが示された。
- 参考スコア(独自算出の注目度): 13.77580842967173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in Large Language Models (LLMs) have accelerated their usage in various domains. Given the fact that psychiatric interviews are goal-oriented and structured dialogues between the professional interviewer and the interviewee, it is one of the most underexplored areas where LLMs can contribute substantial value. Here, we explore the use of LLMs for enhancing psychiatric interviews, by analyzing counseling data from North Korean defectors with traumatic events and mental health issues. Specifically, we investigate whether LLMs can (1) delineate the part of the conversation that suggests psychiatric symptoms and name the symptoms, and (2) summarize stressors and symptoms, based on the interview dialogue transcript. Here, the transcript data was labeled by mental health experts for training and evaluation of LLMs. Our experimental results show that appropriately prompted LLMs can achieve high performance on both the symptom delineation task and the summarization task. This research contributes to the nascent field of applying LLMs to psychiatric interview and demonstrates their potential effectiveness in aiding mental health practitioners.
- Abstract(参考訳): 近年のLarge Language Models (LLM) の進歩により,様々な領域での利用が加速している。
精神科面接がプロの面接者と面接者の目標志向と構造化された対話であるという事実を考えると、LLMが実質的な価値を貢献できる最も未調査領域の1つである。
本稿では、北朝鮮の亡命者からのカウンセリングデータをトラウマ的事象や精神健康問題で分析し、LLMを用いた精神科面接の強化について検討する。
具体的には,(1)精神医学的症状を示唆する会話の一部を記述し,その症状を命名し,(2)面接台詞に基づいてストレスや症状を要約することができるかを検討する。
ここでは, LLMのトレーニングと評価のために, 精神保健の専門家によって, 転写データがラベル付けされた。
実験結果から, LLM は症状記述タスクと要約タスクの両方において高い性能が得られることが示された。
本研究は, LLMを精神医学的面接に適用する新たな分野に寄与し, 精神保健実践者を支援する上での有効性を実証する。
関連論文リスト
- A Novel Nuanced Conversation Evaluation Framework for Large Language Models in Mental Health [42.711913023646915]
大規模言語モデル(LLM)のニュアンス会話能力を評価するための新しい枠組みを提案する。
そこで我々は,心理療法の会話分析文献を用いた文献から開発された,一連の定量的指標を開発した。
GPTモデルやLlamaモデルを含むいくつかの人気のあるフロンティアLCMを、検証されたメンタルヘルスデータセットを通じて評価するために、当社のフレームワークを使用します。
論文 参考訳(メタデータ) (2024-03-08T23:46:37Z) - Benchmarking Hallucination in Large Language Models based on
Unanswerable Math Word Problem [58.3723958800254]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて非常に効果的である。
それらは幻覚と呼ばれる曖昧な文脈で信頼できない予想を生じさせる可能性がある。
本稿では,不問答語問題(MWP)に基づく質問回答(QA)におけるLLM幻覚評価手法を提案する。
論文 参考訳(メタデータ) (2024-03-06T09:06:34Z) - Large Language Model for Mental Health: A Systematic Review [2.9429776664692526]
大規模言語モデル(LLM)は、デジタルヘルスにおいて大きな注目を集め、その可能性を示している。
この体系的なレビューは、精神保健におけるLLMの使用を要約し、特徴付けることを目的としている。
論文 参考訳(メタデータ) (2024-02-19T17:58:41Z) - Evaluating the Efficacy of Interactive Language Therapy Based on LLM for
High-Functioning Autistic Adolescent Psychological Counseling [1.1780706927049207]
本研究では,高機能自閉症青年に対する対話型言語治療におけるLarge Language Models(LLMs)の有効性について検討した。
LLMは、従来の心理学的カウンセリング手法を強化する新しい機会を提供する。
論文 参考訳(メタデータ) (2023-11-12T07:55:39Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z) - MindfulDiary: Harnessing Large Language Model to Support Psychiatric
Patients' Journaling [16.929899228710852]
私たちはMindfulDiaryという,Large Language Model(LLM)を組み込んだモバイルジャーナリングアプリを紹介した。
その結果、MindfulDiaryは毎日の記録を継続的に充実させ、精神科医が自分の思考や日常の文脈を理解することで、患者に共感しやすくすることを支援した。
論文 参考訳(メタデータ) (2023-10-08T17:00:04Z) - Siren's Song in the AI Ocean: A Survey on Hallucination in Large
Language Models [116.01843550398183]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な機能を示している。
LLMは時折、ユーザ入力から分岐するコンテンツを生成し、以前生成されたコンテキストと矛盾する。
論文 参考訳(メタデータ) (2023-09-03T16:56:48Z) - Evaluation and Analysis of Hallucination in Large Vision-Language Models [49.19829480199372]
LVLM(Large Vision-Language Models)は近年大きな成功を収めている。
LVLMは今でも幻覚に悩まされている。
幻覚とは、視覚入力に存在しないLVLMの応答の情報を指す。
論文 参考訳(メタデータ) (2023-08-29T08:51:24Z) - Revisiting the Reliability of Psychological Scales on Large Language
Models [66.31055885857062]
本研究では,人格評価を大規模言語モデル(LLM)に適用する際の信頼性について検討する。
LLMのパーソナライズに光を当てることで、この分野での今後の探索の道を開くことに努める。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z) - Deep Annotation of Therapeutic Working Alliance in Psychotherapy [27.80555922579736]
治療ワーキングアライアンス(英語版)は、精神療法治療の結果の重要な予測因子である。
本研究では,心理療法セッションにおいて,自然言語から直接治療作業同盟を推定する分析的枠組みを提案する。
論文 参考訳(メタデータ) (2022-04-12T04:42:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。