論文の概要: TalkDep: Clinically Grounded LLM Personas for Conversation-Centric Depression Screening
- arxiv url: http://arxiv.org/abs/2508.04248v1
- Date: Wed, 06 Aug 2025 09:30:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.654936
- Title: TalkDep: Clinically Grounded LLM Personas for Conversation-Centric Depression Screening
- Title(参考訳): TalkDep:会話中心の抑うつスクリーニングのための臨床応用LLMペルソナ
- Authors: Xi Wang, Anxo Perez, Javier Parapar, Fabio Crestani,
- Abstract要約: メンタルヘルスサービスは、臨床専門家を育成するための実際のトレーニングデータの可用性を上回っている。
この不足は、トレーニングと評価を支援するシミュレートされた患者や仮想的な患者の開発を動機付けている。
本稿では,患者プロファイルの多様化を図った新しい患者シミュレーションパイプラインであるTalkDepを提案する。
- 参考スコア(独自算出の注目度): 7.395612068348526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing demand for mental health services has outpaced the availability of real training data to develop clinical professionals, leading to limited support for the diagnosis of depression. This shortage has motivated the development of simulated or virtual patients to assist in training and evaluation, but existing approaches often fail to generate clinically valid, natural, and diverse symptom presentations. In this work, we embrace the recent advanced language models as the backbone and propose a novel clinician-in-the-loop patient simulation pipeline, TalkDep, with access to diversified patient profiles to develop simulated patients. By conditioning the model on psychiatric diagnostic criteria, symptom severity scales, and contextual factors, our goal is to create authentic patient responses that can better support diagnostic model training and evaluation. We verify the reliability of these simulated patients with thorough assessments conducted by clinical professionals. The availability of validated simulated patients offers a scalable and adaptable resource for improving the robustness and generalisability of automatic depression diagnosis systems.
- Abstract(参考訳): メンタルヘルスサービスの需要が増加し、臨床専門家を育成するための実際のトレーニングデータの利用が増加し、うつ病の診断への支援が制限された。
この不足は、トレーニングと評価を支援するためのシミュレートされた患者や仮想的な患者の開発を動機付けてきたが、既存のアプローチは、臨床的に有効で自然で多様な症状を提示するのに失敗することが多い。
本研究では,近年の先進言語モデルをバックボーンとして採用し,患者プロファイルの多様化を図り,患者をシミュレートする新たな患者シミュレーションパイプラインであるTalkDepを提案する。
本研究の目的は,精神医学的診断基準,症状重症度尺度,文脈要因をモデルに適応させることで,診断モデルのトレーニングと評価をより効果的に支援することである。
本研究は,これらのシミュレーション患者の信頼性を,臨床専門家による徹底的な評価で検証するものである。
評価されたシミュレートされた患者の可用性は、自動うつ病診断システムの堅牢性と一般化性を改善するために、スケーラブルで適応可能なリソースを提供する。
関連論文リスト
- Unveiling the Landscape of Clinical Depression Assessment: From Behavioral Signatures to Psychiatric Reasoning [43.26860213892083]
うつ病は世界中の何百万もの人に影響を及ぼす広範な精神疾患である。
ほとんどの研究は、限定的または非クリニカルな検証データに依存しており、実世界の有効性よりも複雑なモデル設計を優先することが多い。
C-MIND (C-MIND) は, 臨床神経精神医学的マルチモーダル診断データセットであり, 実際の病院訪問から2年以上経過した。
参加者は3つの構造化された精神医学タスクを完了し、情報的オーディオ、ビデオ、転写、機能的近赤外分光(fNIRS)信号が記録された専門家臨床医から最終診断を受ける。
論文 参考訳(メタデータ) (2025-08-06T15:13:24Z) - PatientSim: A Persona-Driven Simulator for Realistic Doctor-Patient Interactions [15.272979678875787]
本稿では,臨床シナリオのための現実的で多様な患者ペルソナを生成する患者シミュレータであるPatentSimを紹介する。
patientSimは、1)MIMIC-EDおよびMIMIC-IVデータセットの実際のデータから得られた症状や医療史を含む臨床プロファイル、2)性格、言語能力、医療履歴のリコールレベル、認知的混乱レベルという4つの軸で定義されたペルソナを使用する。
トップパフォーマンスのオープンソースモデルであるLlama 3.3は、我々のフレームワークの堅牢性を確認するために、4人の臨床医によって検証された。
論文 参考訳(メタデータ) (2025-05-23T12:34:48Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [61.633126163190724]
精神病は、社会的、個人的コストがかなり高い広範囲で不安定な状態である。
近年の人工知能(AI)の進歩は、うつ病、不安障害、双極性障害、統合失調症、外傷後ストレス障害などの病態を認識し、対処するための大きな可能性を秘めている。
データセットやトレーニング済みモデルからの機密データ漏洩のリスクを含むプライバシー上の懸念は、これらのAIシステムを実際の臨床環境にデプロイする上で、依然として重要な障壁である。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Depression Diagnosis Dialogue Simulation: Self-improving Psychiatrist with Tertiary Memory [35.41386783586689]
本稿では,患者と精神科医の対話を模擬してうつ病診断を促進する自己改善型会話エージェントシステムであるエージェント・メンタル・クリニック(AMC)を紹介する。
本稿では,3次記憶構造,対話制御,およびメモリサンプリングモジュールから構成される精神科医エージェントを設計し,精神科医エージェントが反映するスキルを十分に活用し,抑うつリスクと自殺リスク診断の会話による高精度化を実現する。
論文 参考訳(メタデータ) (2024-09-20T14:25:08Z) - LLM Questionnaire Completion for Automatic Psychiatric Assessment [49.1574468325115]
大規模言語モデル(LLM)を用いて、非構造的心理面接を、様々な精神科領域と人格領域にまたがる構造化された質問票に変換する。
得られた回答は、うつ病の標準化された精神医学的指標(PHQ-8)とPTSD(PCL-C)の予測に使用される特徴として符号化される。
論文 参考訳(メタデータ) (2024-06-09T09:03:11Z) - Leveraging Large Language Model as Simulated Patients for Clinical Education [18.67200160979337]
高いトレーニングコストと有資格SPは、この種の臨床訓練への学生のアクセスを制限する。
LLM(Large Language Models)の急速な発展に伴い、対話型人工知能とロールプレイングにおける特有な能力が実証された。
臨床医学教育におけるLLMの可能性を生かしたCureFunと呼ばれる統合型モデル診断フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-13T06:36:32Z) - Empowering Psychotherapy with Large Language Models: Cognitive
Distortion Detection through Diagnosis of Thought Prompting [82.64015366154884]
本研究では,認知的歪み検出の課題について検討し,思考の早期発見(DoT)を提案する。
DoTは、事実と思考を分離するための主観的評価、思考と矛盾する推論プロセスを引き出すための対照的な推論、認知スキーマを要約するスキーマ分析という3つの段階を通して、患者のスピーチの診断を行う。
実験により、DoTは認知的歪み検出のためのChatGPTよりも大幅に改善され、一方で人間の専門家が承認した高品質な合理性を生成することが示された。
論文 参考訳(メタデータ) (2023-10-11T02:47:21Z) - TREEMENT: Interpretable Patient-Trial Matching via Personalized Dynamic
Tree-Based Memory Network [54.332862955411656]
臨床試験は薬物開発に不可欠であるが、しばしば高価で非効率な患者募集に苦しむ。
近年,患者と臨床試験を自動マッチングすることで患者採用を高速化する機械学習モデルが提案されている。
本稿では,TREement という名前の動的ツリーベースメモリネットワークモデルを導入する。
論文 参考訳(メタデータ) (2023-07-19T12:35:09Z) - Counterfactual Explanations and Predictive Models to Enhance Clinical
Decision-Making in Schizophrenia using Digital Phenotyping [0.966840768820136]
統合失調症患者の症状の個人的変化を予測・検出・説明できる機械学習システムを提案する。
このシステムは、変更点アルゴリズムを用いて症状の減少を検知し、医療におけるシミュレーションされた継続的監視シナリオにおけるリコースとして反ファクト的説明を用いる。
論文 参考訳(メタデータ) (2023-06-06T19:33:03Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。