論文の概要: Uncertainty-Aware Large Language Models for Explainable Disease Diagnosis
- arxiv url: http://arxiv.org/abs/2505.03467v1
- Date: Tue, 06 May 2025 12:12:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.362495
- Title: Uncertainty-Aware Large Language Models for Explainable Disease Diagnosis
- Title(参考訳): 説明不能な疾患診断のための不確実性を考慮した大規模言語モデル
- Authors: Shuang Zhou, Jiashuo Wang, Zidu Xu, Song Wang, David Brauer, Lindsay Welton, Jacob Cogan, Yuen-Hei Chung, Lei Tian, Zaifu Zhan, Yu Hou, Mingquan Lin, Genevieve B. Melton, Rui Zhang,
- Abstract要約: ConfiDx(コンフィデックス)は、オープンソースのLLMを微調整し、診断基準で作成した、不確実性を考慮した大規模言語モデル(LLM)である。
タスクを形式化し、さまざまな診断の曖昧さを捉えるリッチな注釈付きデータセットを組み立てました。
- 参考スコア(独自算出の注目度): 11.093388930528022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable disease diagnosis, which leverages patient information (e.g., signs and symptoms) and computational models to generate probable diagnoses and reasonings, offers clear clinical values. However, when clinical notes encompass insufficient evidence for a definite diagnosis, such as the absence of definitive symptoms, diagnostic uncertainty usually arises, increasing the risk of misdiagnosis and adverse outcomes. Although explicitly identifying and explaining diagnostic uncertainties is essential for trustworthy diagnostic systems, it remains under-explored. To fill this gap, we introduce ConfiDx, an uncertainty-aware large language model (LLM) created by fine-tuning open-source LLMs with diagnostic criteria. We formalized the task and assembled richly annotated datasets that capture varying degrees of diagnostic ambiguity. Evaluating ConfiDx on real-world datasets demonstrated that it excelled in identifying diagnostic uncertainties, achieving superior diagnostic performance, and generating trustworthy explanations for diagnoses and uncertainties. To our knowledge, this is the first study to jointly address diagnostic uncertainty recognition and explanation, substantially enhancing the reliability of automatic diagnostic systems.
- Abstract(参考訳): 患者情報(例えば、徴候や症状)と計算モデルを利用して予測可能な診断と推論を生成する説明可能な疾患診断は、明確な臨床的価値を提供する。
しかし、明確な症状の欠如などの明確な診断の証拠が不十分な場合、診断の不確実性は通常発生し、誤診のリスクと副作用のリスクが増大する。
診断の不確実性を明確に特定し、説明することは、信頼できる診断システムには不可欠であるが、未解明のままである。
このギャップを埋めるために,オープンソースのLCMを微調整して作成した,不確実性を考慮した大規模言語モデル(LLM)であるConfiDxを紹介する。
タスクを形式化し、さまざまな診断の曖昧さを捉えるリッチな注釈付きデータセットを組み立てました。
実世界のデータセット上でのConfiDxの評価は、診断の不確実性を特定し、診断性能を向上し、診断や不確実性に対する信頼できる説明を生成するのに優れていることを示した。
本研究は,診断の不確かさの認識と説明を共同で行う最初の研究であり,自動診断システムの信頼性を著しく向上させるものである。
関連論文リスト
- CoD, Towards an Interpretable Medical Agent using Chain of Diagnosis [36.28995062833098]
CoD(Chain-of-Diagnosis)は、診断過程を医師の思考過程を反映した診断連鎖に変換する。
CoDは、意思決定における透明性を確保するために、病気の信頼性分布を出力する。
診断GPTは9604の疾患を診断することができる。
論文 参考訳(メタデータ) (2024-07-18T09:06:27Z) - Unified Uncertainty Estimation for Cognitive Diagnosis Models [70.46998436898205]
本稿では,幅広い認知診断モデルに対する統一的不確実性推定手法を提案する。
診断パラメータの不確かさをデータ・アスペクトとモデル・アスペクトに分解する。
本手法は有効であり,認知診断の不確実性に関する有用な知見を提供することができる。
論文 参考訳(メタデータ) (2024-03-09T13:48:20Z) - Towards Reducing Diagnostic Errors with Interpretable Risk Prediction [18.474645862061426]
特定診断のリスクの増大または低下を示す患者EHRデータ中の証拠片をLCMを用いて同定する方法を提案する。
私たちの究極の目標は、証拠へのアクセスを増やし、診断エラーを減らすことです。
論文 参考訳(メタデータ) (2024-02-15T17:05:48Z) - A Foundational Framework and Methodology for Personalized Early and
Timely Diagnosis [84.6348989654916]
本稿では,早期診断とタイムリー診断のための基礎的枠組みを提案する。
診断過程を概説する決定論的アプローチに基づいている。
機械学習と統計手法を統合し、最適なパーソナライズされた診断経路を推定する。
論文 参考訳(メタデータ) (2023-11-26T14:42:31Z) - Towards the Identifiability and Explainability for Personalized Learner
Modeling: An Inductive Paradigm [36.60917255464867]
本稿では,エンコーダ・デコーダモデルにインスパイアされた新しい応答効率応答パラダイムに基づく,識別可能な認知診断フレームワークを提案する。
診断精度を損なうことなく,ID-CDFが効果的に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-09-01T07:18:02Z) - Anytime Diagnosis for Reconfiguration [52.77024349608834]
我々は、いつでも直接診断できるflexdiagを紹介し分析する。
特徴モデルの領域からの構成ベンチマークと自動車領域からの産業構成知識ベースを使用して、性能および診断品質に関するアルゴリズムを評価します。
論文 参考訳(メタデータ) (2021-02-19T11:45:52Z) - Uncertainty aware and explainable diagnosis of retinal disease [0.0]
4つの網膜疾患の診断のための深層学習モデルの不確実性解析を行う。
不確実性が認識されている間にシステムが予測に使用する特徴は、システムが決定について確信が持たないときにハイライトする能力である。
論文 参考訳(メタデータ) (2021-01-26T23:37:30Z) - Towards Causality-Aware Inferring: A Sequential Discriminative Approach
for Medical Diagnosis [142.90770786804507]
医学診断アシスタント(MDA)は、疾患を識別するための症状を逐次調査する対話型診断エージェントを構築することを目的としている。
この研究は、因果図を利用して、MDAにおけるこれらの重要な問題に対処しようとする。
本稿では,他の記録から知識を引き出すことにより,非記録的調査に効果的に答える確率に基づく患者シミュレータを提案する。
論文 参考訳(メタデータ) (2020-03-14T02:05:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。