論文の概要: PSYCHE: A Multi-faceted Patient Simulation Framework for Evaluation of Psychiatric Assessment Conversational Agents
- arxiv url: http://arxiv.org/abs/2501.01594v1
- Date: Fri, 03 Jan 2025 01:38:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:12:38.422559
- Title: PSYCHE: A Multi-faceted Patient Simulation Framework for Evaluation of Psychiatric Assessment Conversational Agents
- Title(参考訳): PSYCHE : 精神科評価対話エージェントの評価のための多面的患者シミュレーションフレームワーク
- Authors: Jingoo Lee, Kyungho Lim, Young-Chul Jung, Byung-Hoon Kim,
- Abstract要約: 精神科アセスメント会話エージェント(PACA)は、臨床評価における精神科医の役割をシミュレートすることを目的としている。
本稿では,(1)臨床関連性,2)倫理的安全性,3)費用効率,および4)PACAの定量的評価を可能にする新しい枠組みであるPSYCHEを提案する。
これは、シミュレーションされた患者のプロファイル、履歴、行動を定義する多面的な精神科構成に基づいて、精神科患者をシミュレートすることで達成される。
- 参考スコア(独自算出の注目度): 2.8216674865505627
- License:
- Abstract: Recent advances in large language models (LLMs) have accelerated the development of conversational agents capable of generating human-like responses. Since psychiatric assessments typically involve complex conversational interactions between psychiatrists and patients, there is growing interest in developing LLM-based psychiatric assessment conversational agents (PACAs) that aim to simulate the role of psychiatrists in clinical evaluations. However, standardized methods for benchmarking the clinical appropriateness of PACAs' interaction with patients still remain underexplored. Here, we propose PSYCHE, a novel framework designed to enable the 1) clinically relevant, 2) ethically safe, 3) cost-efficient, and 4) quantitative evaluation of PACAs. This is achieved by simulating psychiatric patients based on a multi-faceted psychiatric construct that defines the simulated patients' profiles, histories, and behaviors, which PACAs are expected to assess. We validate the effectiveness of PSYCHE through a study with 10 board-certified psychiatrists, supported by an in-depth analysis of the simulated patient utterances.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、人間のような応答を生成できる会話エージェントの開発を加速させている。
精神医学的評価は通常、精神科医と患者の間の複雑な会話的相互作用を伴うため、臨床評価における精神科医の役割をシミュレートすることを目的としたLLMベースの精神医学的評価会話エージェント(PACA)の開発への関心が高まっている。
しかし,PACAsと患者との相互作用の妥当性を基準として標準化された手法はいまだ検討されていない。
本稿では,PSYCHEを提案する。
1)臨床的に関連がある。
2)倫理的に安全である。
3)コスト効率、および
4)PACAの定量的評価を行った。
これは、PACAが評価することが期待される、シミュレーションされた患者のプロファイル、履歴、行動を定義する多面的な精神科構成に基づいて、精神科患者をシミュレートすることで達成される。
本研究は,10名の精神科医による研究を通じてPSYCHEの有効性を検証し,シミュレートされた患者発話の詳細な分析を行った。
関連論文リスト
- LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - CBT-Bench: Evaluating Large Language Models on Assisting Cognitive Behavior Therapy [67.23830698947637]
認知行動療法(CBT)支援の体系的評価のための新しいベンチマークであるCBT-BENCHを提案する。
我々は, CBT-BENCHにおける3段階の課題を含む: I: 基本的CBT知識獲得, 複数選択質問のタスク; II: 認知的モデル理解, 認知的歪み分類, 主根的信念分類, きめ細かい中核信念分類のタスク; III: 治療的応答生成, CBTセラピーセッションにおける患者音声に対する応答生成のタスク。
実験結果から,LLMはCBT知識のリサイティングに優れるが,複雑な実世界のシナリオでは不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-10-17T04:52:57Z) - Depression Diagnosis Dialogue Simulation: Self-improving Psychiatrist with Tertiary Memory [35.41386783586689]
本稿では,患者と精神科医の対話を模擬してうつ病診断を促進する自己改善型会話エージェントシステムであるエージェント・メンタル・クリニック(AMC)を紹介する。
本稿では,3次記憶構造,対話制御,およびメモリサンプリングモジュールから構成される精神科医エージェントを設計し,精神科医エージェントが反映するスキルを十分に活用し,抑うつリスクと自殺リスク診断の会話による高精度化を実現する。
論文 参考訳(メタデータ) (2024-09-20T14:25:08Z) - LLM Questionnaire Completion for Automatic Psychiatric Assessment [49.1574468325115]
大規模言語モデル(LLM)を用いて、非構造的心理面接を、様々な精神科領域と人格領域にまたがる構造化された質問票に変換する。
得られた回答は、うつ病の標準化された精神医学的指標(PHQ-8)とPTSD(PCL-C)の予測に使用される特徴として符号化される。
論文 参考訳(メタデータ) (2024-06-09T09:03:11Z) - Chain-of-Interaction: Enhancing Large Language Models for Psychiatric Behavior Understanding by Dyadic Contexts [4.403408362362806]
本稿では,対話型対話による精神科的意思決定支援のための大規模言語モデルを文脈化するための,対話型連鎖促進手法を提案する。
このアプローチにより、大規模言語モデルでは、患者の行動コーディングのためのコーディングスキーム、患者の状態、およびドメイン知識を活用することができる。
論文 参考訳(メタデータ) (2024-03-20T17:47:49Z) - COMPASS: Computational Mapping of Patient-Therapist Alliance Strategies with Language Modeling [14.04866656172336]
心理療法セッションで使用される自然言語から治療作業同盟を推定するための新しい枠組みを提案する。
提案手法は,高度大規模言語モデル(LLM)を用いて心理療法セッションの転写を解析し,それらをワーキングアライアンスインベントリにおけるステートメントの分散表現と比較する。
論文 参考訳(メタデータ) (2024-02-22T16:56:44Z) - PsychoGAT: A Novel Psychological Measurement Paradigm through Interactive Fiction Games with LLM Agents [68.50571379012621]
心理的な測定は、精神健康、自己理解、そして個人の発達に不可欠である。
心理学ゲームAgenT(サイコガト)は、信頼性、収束妥当性、差別的妥当性などの心理学的指標において統計的に有意な卓越性を達成している。
論文 参考訳(メタデータ) (2024-02-19T18:00:30Z) - Empowering Psychotherapy with Large Language Models: Cognitive
Distortion Detection through Diagnosis of Thought Prompting [82.64015366154884]
本研究では,認知的歪み検出の課題について検討し,思考の早期発見(DoT)を提案する。
DoTは、事実と思考を分離するための主観的評価、思考と矛盾する推論プロセスを引き出すための対照的な推論、認知スキーマを要約するスキーマ分析という3つの段階を通して、患者のスピーチの診断を行う。
実験により、DoTは認知的歪み検出のためのChatGPTよりも大幅に改善され、一方で人間の専門家が承認した高品質な合理性を生成することが示された。
論文 参考訳(メタデータ) (2023-10-11T02:47:21Z) - The Capability of Large Language Models to Measure Psychiatric
Functioning [9.938814639951842]
Med-PaLM 2は、様々な精神疾患にまたがる精神機能を評価することができる。
最強のパフォーマンスは、標準化された評価に基づく抑うつスコアの予測であった。
その結果,一般臨床言語モデルが精神医学的リスクを柔軟に予測できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-03T15:52:27Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。