論文の概要: Standardization of Psychiatric Diagnoses -- Role of Fine-tuned LLM Consortium and OpenAI-gpt-oss Reasoning LLM Enabled Decision Support System
- arxiv url: http://arxiv.org/abs/2510.25588v1
- Date: Wed, 29 Oct 2025 14:54:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.712255
- Title: Standardization of Psychiatric Diagnoses -- Role of Fine-tuned LLM Consortium and OpenAI-gpt-oss Reasoning LLM Enabled Decision Support System
- Title(参考訳): 精神医学診断の標準化 -- 微調整LDMコンソーシアムとOpenAI-gpt-oss Reasoning LLM Enabled Decision Support Systemの役割
- Authors: Eranga Bandara, Ross Gore, Atmaram Yarlagadda, Anita H. Clayton, Preston Samuel, Christopher K. Rhea, Sachin Shetty,
- Abstract要約: 本稿では,LLM対応意思決定支援システムについて,LLMコンソーシアムとOpenAI-gpt-oss Reasoning LLM対応意思決定支援システムを提案する。
個々のモデルからの診断予測は、コンセンサスに基づく意思決定プロセスを通じて集約される。
提案されたプラットフォームのプロトタイプは、バージニア州ノーフォークのアメリカ陸軍医療研究チームと共同で開発された。
- 参考スコア(独自算出の注目度): 3.629588822458722
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The diagnosis of most mental disorders, including psychiatric evaluations, primarily depends on dialogues between psychiatrists and patients. This subjective process can lead to variability in diagnoses across clinicians and patients, resulting in inconsistencies and challenges in achieving reliable outcomes. To address these issues and standardize psychiatric diagnoses, we propose a Fine-Tuned Large Language Model (LLM) Consortium and OpenAI-gpt-oss Reasoning LLM-enabled Decision Support System for the clinical diagnosis of mental disorders. Our approach leverages fine-tuned LLMs trained on conversational datasets involving psychiatrist-patient interactions focused on mental health conditions (e.g., depression). The diagnostic predictions from individual models are aggregated through a consensus-based decision-making process, refined by the OpenAI-gpt-oss reasoning LLM. We propose a novel method for deploying LLM agents that orchestrate communication between the LLM consortium and the reasoning LLM, ensuring transparency, reliability, and responsible AI across the entire diagnostic workflow. Experimental results demonstrate the transformative potential of combining fine-tuned LLMs with a reasoning model to create a robust and highly accurate diagnostic system for mental health assessment. A prototype of the proposed platform, integrating three fine-tuned LLMs with the OpenAI-gpt-oss reasoning LLM, was developed in collaboration with the U.S. Army Medical Research Team in Norfolk, Virginia, USA. To the best of our knowledge, this work represents the first application of a fine-tuned LLM consortium integrated with a reasoning LLM for clinical mental health diagnosis paving the way for next-generation AI-powered eHealth systems aimed at standardizing psychiatric diagnoses.
- Abstract(参考訳): 精神医学的評価を含むほとんどの精神疾患の診断は、主に精神科医と患者との対話に依存する。
この主観的プロセスは、臨床医や患者間での診断の多様性をもたらし、信頼性のある結果を達成する上での矛盾と課題をもたらす。
これらの問題に対処し、精神医学的診断を標準化するために、精神疾患の臨床診断のためのファインチューニング大型言語モデル(LLM)コンソーシアムとOpenAI-gpt-oss Reasoning LLM対応意思決定支援システムを提案する。
我々のアプローチでは、精神疾患(うつ病など)に焦点を当てた精神科医と患者の相互作用を含む会話データセットに基づいて訓練された微調整LSMを活用している。
個々のモデルからの診断予測は、OpenAI-gpt-oss推論LLMによって洗練され、コンセンサスに基づく意思決定プロセスを通じて集約される。
本稿では,LLM コンソーシアムと LLM の通信を統括する LLM エージェントの配置方法を提案する。
実験結果から, 微調整LDMと推論モデルを組み合わせることにより, 精神的健康評価のための堅牢で高精度な診断システムを構築することができる可能性が示された。
提案されたプラットフォームのプロトタイプは、3つの微調整LDMとOpenAI-gpt-oss推論LDMを統合し、バージニア州ノーフォークのアメリカ陸軍医療研究チームと共同で開発された。
我々の知る限り、この研究は、精神診断の標準化を目的とした次世代AIを活用したeヘルスシステムを実現するための、臨床精神医学診断のためのLSMと統合された微調整LDMコンソーシアムの最初の応用である。
関連論文リスト
- Simulating Viva Voce Examinations to Evaluate Clinical Reasoning in Large Language Models [51.91760712805404]
大規模言語モデル(LLM)におけるシーケンシャルな臨床推論を評価するためのベンチマークであるVivaBenchを紹介する。
本データセットは,医療訓練における(口頭)検査をシミュレートする対話的シナリオとして構成された1762名の医師による臨床ヴィグネットから構成される。
本分析では,臨床における認知的誤りを反映するいくつかの障害モードを同定した。
論文 参考訳(メタデータ) (2025-10-11T16:24:35Z) - Trustworthy AI Psychotherapy: Multi-Agent LLM Workflow for Counseling and Explainable Mental Disorder Diagnosis [11.025486717604972]
DSM5AgentFlowは、DSM-5 Level-1診断票を自律的に生成する最初のLCMベースのエージェントワークフローである。
特定のクライアントプロファイルでセラピストとクライアントの対話をシミュレートすることで、このフレームワークは透明でステップバイステップの障害予測を提供する。
このワークフローは、精神的な健康診断のための補完的なツールとして機能し、倫理的および法的基準の遵守を保証する。
論文 参考訳(メタデータ) (2025-08-15T11:08:32Z) - MAGI: Multi-Agent Guided Interview for Psychiatric Assessment [50.6150986786028]
我々は,ゴールドスタンダードのMini International Neuropsychiatric Interview(MINI)を自動計算ナビゲーションに変換する最初のフレームワークであるMAGIを紹介する。
臨床検査法, 会話適応性, 説明可能な推論を併用することにより, MAGI は LLM 支援型メンタルヘルスアセスメントを推し進めることを示す。
論文 参考訳(メタデータ) (2025-04-25T11:08:27Z) - Large Language Models for Interpretable Mental Health Diagnosis [2.885094643456156]
大規模言語モデル(LLM)と制約論理プログラミング(CLP)の強みを組み合わせた精神保健診断のための臨床意思決定支援システム(CDSS)を提案する。
我々のCDSSは、LCMを用いて診断マニュアルを論理プログラムに翻訳し、既製のCLPエンジンを用いて患者の診断を問い合わせるソフトウェアツールである。
論文 参考訳(メタデータ) (2025-01-13T19:26:09Z) - RuleAlign: Making Large Language Models Better Physicians with Diagnostic Rule Alignment [54.91736546490813]
本稿では,大規模言語モデルと特定の診断規則との整合性を考慮したルールアラインフレームワークを提案する。
患者と医師間の規則に基づくコミュニケーションを含む医療対話データセットを開発した。
実験の結果,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-08-22T17:44:40Z) - Automating PTSD Diagnostics in Clinical Interviews: Leveraging Large Language Models for Trauma Assessments [7.219693607724636]
我々は、ワークフローにカスタマイズされた大言語モデル(LLM)を統合することで、この不足に対処することを目指している。
臨床医が担当する診断面接411件を収集し,高品質なデータを得るための新しいアプローチを考案した。
インタビュー内容に基づいたPTSD診断評価を自動化するための総合的なフレームワークを構築した。
論文 参考訳(メタデータ) (2024-05-18T05:04:18Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。