論文の概要: Uncertainty-Aware Large Language Models for Explainable Disease Diagnosis
- arxiv url: http://arxiv.org/abs/2505.03467v1
- Date: Tue, 06 May 2025 12:12:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.362495
- Title: Uncertainty-Aware Large Language Models for Explainable Disease Diagnosis
- Title(参考訳): 説明不能な疾患診断のための不確実性を考慮した大規模言語モデル
- Authors: Shuang Zhou, Jiashuo Wang, Zidu Xu, Song Wang, David Brauer, Lindsay Welton, Jacob Cogan, Yuen-Hei Chung, Lei Tian, Zaifu Zhan, Yu Hou, Mingquan Lin, Genevieve B. Melton, Rui Zhang,
- Abstract要約: ConfiDx(コンフィデックス)は、オープンソースのLLMを微調整し、診断基準で作成した、不確実性を考慮した大規模言語モデル(LLM)である。
タスクを形式化し、さまざまな診断の曖昧さを捉えるリッチな注釈付きデータセットを組み立てました。
- 参考スコア(独自算出の注目度): 11.093388930528022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable disease diagnosis, which leverages patient information (e.g., signs and symptoms) and computational models to generate probable diagnoses and reasonings, offers clear clinical values. However, when clinical notes encompass insufficient evidence for a definite diagnosis, such as the absence of definitive symptoms, diagnostic uncertainty usually arises, increasing the risk of misdiagnosis and adverse outcomes. Although explicitly identifying and explaining diagnostic uncertainties is essential for trustworthy diagnostic systems, it remains under-explored. To fill this gap, we introduce ConfiDx, an uncertainty-aware large language model (LLM) created by fine-tuning open-source LLMs with diagnostic criteria. We formalized the task and assembled richly annotated datasets that capture varying degrees of diagnostic ambiguity. Evaluating ConfiDx on real-world datasets demonstrated that it excelled in identifying diagnostic uncertainties, achieving superior diagnostic performance, and generating trustworthy explanations for diagnoses and uncertainties. To our knowledge, this is the first study to jointly address diagnostic uncertainty recognition and explanation, substantially enhancing the reliability of automatic diagnostic systems.
- Abstract(参考訳): 患者情報(例えば、徴候や症状)と計算モデルを利用して予測可能な診断と推論を生成する説明可能な疾患診断は、明確な臨床的価値を提供する。
しかし、明確な症状の欠如などの明確な診断の証拠が不十分な場合、診断の不確実性は通常発生し、誤診のリスクと副作用のリスクが増大する。
診断の不確実性を明確に特定し、説明することは、信頼できる診断システムには不可欠であるが、未解明のままである。
このギャップを埋めるために,オープンソースのLCMを微調整して作成した,不確実性を考慮した大規模言語モデル(LLM)であるConfiDxを紹介する。
タスクを形式化し、さまざまな診断の曖昧さを捉えるリッチな注釈付きデータセットを組み立てました。
実世界のデータセット上でのConfiDxの評価は、診断の不確実性を特定し、診断性能を向上し、診断や不確実性に対する信頼できる説明を生成するのに優れていることを示した。
本研究は,診断の不確かさの認識と説明を共同で行う最初の研究であり,自動診断システムの信頼性を著しく向上させるものである。
関連論文リスト
- LLM-Driven Medical Document Analysis: Enhancing Trustworthy Pathology and Differential Diagnosis [13.435898630240416]
低ランク適応を用いてLLaMA-v3を微調整する信頼性の高い医療文書分析プラットフォームを提案する。
本手法は差分診断のための最大のベンチマークデータセットであるDDXPlusを利用する。
開発したWebベースのプラットフォームでは、ユーザは独自の構造化されていない医療文書を提出し、正確な説明可能な診断結果を受け取ることができる。
論文 参考訳(メタデータ) (2025-06-24T15:12:42Z) - Uncertainty-aware abstention in medical diagnosis based on medical texts [87.88110503208016]
本研究は,AI支援医療診断における信頼性の重要課題について論じる。
本研究は,診断に自信がなければ,診断システムによる意思決定の回避を可能にする選択予測手法に焦点をあてる。
我々は、選択予測タスクにおける信頼性を高めるための新しい最先端手法であるHUQ-2を紹介する。
論文 参考訳(メタデータ) (2025-02-25T10:15:21Z) - CoD, Towards an Interpretable Medical Agent using Chain of Diagnosis [36.28995062833098]
CoD(Chain-of-Diagnosis)は、診断過程を医師の思考過程を反映した診断連鎖に変換する。
CoDは、意思決定における透明性を確保するために、病気の信頼性分布を出力する。
診断GPTは9604の疾患を診断することができる。
論文 参考訳(メタデータ) (2024-07-18T09:06:27Z) - Unified Uncertainty Estimation for Cognitive Diagnosis Models [70.46998436898205]
本稿では,幅広い認知診断モデルに対する統一的不確実性推定手法を提案する。
診断パラメータの不確かさをデータ・アスペクトとモデル・アスペクトに分解する。
本手法は有効であり,認知診断の不確実性に関する有用な知見を提供することができる。
論文 参考訳(メタデータ) (2024-03-09T13:48:20Z) - Towards Reducing Diagnostic Errors with Interpretable Risk Prediction [18.474645862061426]
特定診断のリスクの増大または低下を示す患者EHRデータ中の証拠片をLCMを用いて同定する方法を提案する。
私たちの究極の目標は、証拠へのアクセスを増やし、診断エラーを減らすことです。
論文 参考訳(メタデータ) (2024-02-15T17:05:48Z) - A Foundational Framework and Methodology for Personalized Early and
Timely Diagnosis [84.6348989654916]
本稿では,早期診断とタイムリー診断のための基礎的枠組みを提案する。
診断過程を概説する決定論的アプローチに基づいている。
機械学習と統計手法を統合し、最適なパーソナライズされた診断経路を推定する。
論文 参考訳(メタデータ) (2023-11-26T14:42:31Z) - Towards the Identifiability and Explainability for Personalized Learner
Modeling: An Inductive Paradigm [36.60917255464867]
本稿では,エンコーダ・デコーダモデルにインスパイアされた新しい応答効率応答パラダイムに基づく,識別可能な認知診断フレームワークを提案する。
診断精度を損なうことなく,ID-CDFが効果的に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-09-01T07:18:02Z) - An Uncertainty-Informed Framework for Trustworthy Fault Diagnosis in
Safety-Critical Applications [1.988145627448243]
深層学習に基づく予後・健康管理(PHM)の信頼性の低さは、安全に重要な資産におけるその適用を妨げる。
本稿では,障害の診断とOODデータセット検出のための不確実性インフォームドフレームワークを提案する。
提案手法は, 安全クリティカルなアプリケーションにおいて, 未知に対処し, 故障診断の信頼性を高める上で特に有利であることを示す。
論文 参考訳(メタデータ) (2021-10-08T21:24:14Z) - Anytime Diagnosis for Reconfiguration [52.77024349608834]
我々は、いつでも直接診断できるflexdiagを紹介し分析する。
特徴モデルの領域からの構成ベンチマークと自動車領域からの産業構成知識ベースを使用して、性能および診断品質に関するアルゴリズムを評価します。
論文 参考訳(メタデータ) (2021-02-19T11:45:52Z) - Inheritance-guided Hierarchical Assignment for Clinical Automatic
Diagnosis [50.15205065710629]
臨床診断は、臨床ノートに基づいて患者に診断符号を割り当てることを目的としており、臨床意思決定において重要な役割を担っている。
本稿では,臨床自動診断のための継承誘導階層と共起グラフの伝播を組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-27T13:16:51Z) - Uncertainty aware and explainable diagnosis of retinal disease [0.0]
4つの網膜疾患の診断のための深層学習モデルの不確実性解析を行う。
不確実性が認識されている間にシステムが予測に使用する特徴は、システムが決定について確信が持たないときにハイライトする能力である。
論文 参考訳(メタデータ) (2021-01-26T23:37:30Z) - Towards Causality-Aware Inferring: A Sequential Discriminative Approach
for Medical Diagnosis [142.90770786804507]
医学診断アシスタント(MDA)は、疾患を識別するための症状を逐次調査する対話型診断エージェントを構築することを目的としている。
この研究は、因果図を利用して、MDAにおけるこれらの重要な問題に対処しようとする。
本稿では,他の記録から知識を引き出すことにより,非記録的調査に効果的に答える確率に基づく患者シミュレータを提案する。
論文 参考訳(メタデータ) (2020-03-14T02:05:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。