論文の概要: Uncertainty-Aware Large Language Models for Explainable Disease Diagnosis
- arxiv url: http://arxiv.org/abs/2505.03467v1
- Date: Tue, 06 May 2025 12:12:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.362495
- Title: Uncertainty-Aware Large Language Models for Explainable Disease Diagnosis
- Title(参考訳): 説明不能な疾患診断のための不確実性を考慮した大規模言語モデル
- Authors: Shuang Zhou, Jiashuo Wang, Zidu Xu, Song Wang, David Brauer, Lindsay Welton, Jacob Cogan, Yuen-Hei Chung, Lei Tian, Zaifu Zhan, Yu Hou, Mingquan Lin, Genevieve B. Melton, Rui Zhang,
- Abstract要約: ConfiDx(コンフィデックス)は、オープンソースのLLMを微調整し、診断基準で作成した、不確実性を考慮した大規模言語モデル(LLM)である。
タスクを形式化し、さまざまな診断の曖昧さを捉えるリッチな注釈付きデータセットを組み立てました。
- 参考スコア(独自算出の注目度): 11.093388930528022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable disease diagnosis, which leverages patient information (e.g., signs and symptoms) and computational models to generate probable diagnoses and reasonings, offers clear clinical values. However, when clinical notes encompass insufficient evidence for a definite diagnosis, such as the absence of definitive symptoms, diagnostic uncertainty usually arises, increasing the risk of misdiagnosis and adverse outcomes. Although explicitly identifying and explaining diagnostic uncertainties is essential for trustworthy diagnostic systems, it remains under-explored. To fill this gap, we introduce ConfiDx, an uncertainty-aware large language model (LLM) created by fine-tuning open-source LLMs with diagnostic criteria. We formalized the task and assembled richly annotated datasets that capture varying degrees of diagnostic ambiguity. Evaluating ConfiDx on real-world datasets demonstrated that it excelled in identifying diagnostic uncertainties, achieving superior diagnostic performance, and generating trustworthy explanations for diagnoses and uncertainties. To our knowledge, this is the first study to jointly address diagnostic uncertainty recognition and explanation, substantially enhancing the reliability of automatic diagnostic systems.
- Abstract(参考訳): 患者情報(例えば、徴候や症状)と計算モデルを利用して予測可能な診断と推論を生成する説明可能な疾患診断は、明確な臨床的価値を提供する。
しかし、明確な症状の欠如などの明確な診断の証拠が不十分な場合、診断の不確実性は通常発生し、誤診のリスクと副作用のリスクが増大する。
診断の不確実性を明確に特定し、説明することは、信頼できる診断システムには不可欠であるが、未解明のままである。
このギャップを埋めるために,オープンソースのLCMを微調整して作成した,不確実性を考慮した大規模言語モデル(LLM)であるConfiDxを紹介する。
タスクを形式化し、さまざまな診断の曖昧さを捉えるリッチな注釈付きデータセットを組み立てました。
実世界のデータセット上でのConfiDxの評価は、診断の不確実性を特定し、診断性能を向上し、診断や不確実性に対する信頼できる説明を生成するのに優れていることを示した。
本研究は,診断の不確かさの認識と説明を共同で行う最初の研究であり,自動診断システムの信頼性を著しく向上させるものである。
関連論文リスト
- MedClarify: An information-seeking AI agent for medical diagnosis with case-specific follow-up questions [26.936554184582096]
我々は,情報探索のためのAIエージェントであるMedClarifyを紹介し,反復推論のためのフォローアップ質問を生成する。
具体的には、MedClarifyは、鑑別診断に類似した候補診断のリストを計算し、積極的にフォローアップ質問を生成する。
論文 参考訳(メタデータ) (2026-02-19T12:19:12Z) - Thinking Like a Doctor: Conversational Diagnosis through the Exploration of Diagnostic Knowledge Graphs [12.612647781309098]
本稿では,2段階の推論を行うための診断知識グラフを探索する対話型診断システムを提案する。
システムの質問に応答する現実的な患者シミュレータを使用します。
実験では、強いベースラインよりも診断精度と効率が向上した。
論文 参考訳(メタデータ) (2026-02-02T11:56:36Z) - Modeling Clinical Uncertainty in Radiology Reports: from Explicit Uncertainty Markers to Implicit Reasoning Pathways [16.76473492794096]
明示的な不確実性は、ヘッジフレーズを通じて伝達される発見の有無についての疑念を反映している。
入射不確実性は、放射線学者がその推論の一部を省略し、重要な発見や診断のみを記録するときに生じる。
ここでは、省略された所見が真に欠如しているか、単に軽快のため欠落しているかは、しばしば不明である。
我々は、エキスパート検証されたLLMベースの共通ヘッジフレーズの基準ランキングを作成し、この基準に基づいて各発見を確率値にマッピングすることで、明確な不確実性を定量化する。
さらに、14の共通診断のための専門家定義診断経路から派生した特徴的サブフィンディングを体系的に付加する拡張フレームワークを通じて暗黙的な不確実性をモデル化する。
論文 参考訳(メタデータ) (2025-11-06T16:24:53Z) - Simulating Viva Voce Examinations to Evaluate Clinical Reasoning in Large Language Models [51.91760712805404]
大規模言語モデル(LLM)におけるシーケンシャルな臨床推論を評価するためのベンチマークであるVivaBenchを紹介する。
本データセットは,医療訓練における(口頭)検査をシミュレートする対話的シナリオとして構成された1762名の医師による臨床ヴィグネットから構成される。
本分析では,臨床における認知的誤りを反映するいくつかの障害モードを同定した。
論文 参考訳(メタデータ) (2025-10-11T16:24:35Z) - Probabilistic Machine Learning for Uncertainty-Aware Diagnosis of Industrial Systems [2.7946438090394903]
本研究では、アンサンブル確率論的機械学習を用いて、データ駆動一貫性に基づく診断の診断特性を改善するフレームワークを提案する。
本手法はアブレーション法と比較解析法の両方を用いていくつかのケーススタディで評価され, 診断基準の範囲で一貫した改善が見られた。
論文 参考訳(メタデータ) (2025-09-23T08:59:20Z) - End-to-End Agentic RAG System Training for Traceable Diagnostic Reasoning [52.12425911708585]
Deep-DxSearchは、強化学習(RL)でエンドツーエンドに訓練されたエージェントRAGシステムである。
Deep-DxSearchでは,患者記録と信頼性のある医療知識情報を含む大規模医療検索コーパスを構築した。
実験により、エンドツーエンドのRLトレーニングフレームワークは、プロンプトエンジニアリングやトレーニングフリーなRAGアプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-08-21T17:42:47Z) - LLM-Driven Medical Document Analysis: Enhancing Trustworthy Pathology and Differential Diagnosis [13.435898630240416]
低ランク適応を用いてLLaMA-v3を微調整する信頼性の高い医療文書分析プラットフォームを提案する。
本手法は差分診断のための最大のベンチマークデータセットであるDDXPlusを利用する。
開発したWebベースのプラットフォームでは、ユーザは独自の構造化されていない医療文書を提出し、正確な説明可能な診断結果を受け取ることができる。
論文 参考訳(メタデータ) (2025-06-24T15:12:42Z) - Uncertainty-aware abstention in medical diagnosis based on medical texts [87.88110503208016]
本研究は,AI支援医療診断における信頼性の重要課題について論じる。
本研究は,診断に自信がなければ,診断システムによる意思決定の回避を可能にする選択予測手法に焦点をあてる。
我々は、選択予測タスクにおける信頼性を高めるための新しい最先端手法であるHUQ-2を紹介する。
論文 参考訳(メタデータ) (2025-02-25T10:15:21Z) - CoD, Towards an Interpretable Medical Agent using Chain of Diagnosis [36.28995062833098]
CoD(Chain-of-Diagnosis)は、診断過程を医師の思考過程を反映した診断連鎖に変換する。
CoDは、意思決定における透明性を確保するために、病気の信頼性分布を出力する。
診断GPTは9604の疾患を診断することができる。
論文 参考訳(メタデータ) (2024-07-18T09:06:27Z) - Unified Uncertainty Estimation for Cognitive Diagnosis Models [70.46998436898205]
本稿では,幅広い認知診断モデルに対する統一的不確実性推定手法を提案する。
診断パラメータの不確かさをデータ・アスペクトとモデル・アスペクトに分解する。
本手法は有効であり,認知診断の不確実性に関する有用な知見を提供することができる。
論文 参考訳(メタデータ) (2024-03-09T13:48:20Z) - Towards Reducing Diagnostic Errors with Interpretable Risk Prediction [18.474645862061426]
特定診断のリスクの増大または低下を示す患者EHRデータ中の証拠片をLCMを用いて同定する方法を提案する。
私たちの究極の目標は、証拠へのアクセスを増やし、診断エラーを減らすことです。
論文 参考訳(メタデータ) (2024-02-15T17:05:48Z) - A Foundational Framework and Methodology for Personalized Early and
Timely Diagnosis [84.6348989654916]
本稿では,早期診断とタイムリー診断のための基礎的枠組みを提案する。
診断過程を概説する決定論的アプローチに基づいている。
機械学習と統計手法を統合し、最適なパーソナライズされた診断経路を推定する。
論文 参考訳(メタデータ) (2023-11-26T14:42:31Z) - Towards the Identifiability and Explainability for Personalized Learner
Modeling: An Inductive Paradigm [36.60917255464867]
本稿では,エンコーダ・デコーダモデルにインスパイアされた新しい応答効率応答パラダイムに基づく,識別可能な認知診断フレームワークを提案する。
診断精度を損なうことなく,ID-CDFが効果的に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-09-01T07:18:02Z) - An Uncertainty-Informed Framework for Trustworthy Fault Diagnosis in
Safety-Critical Applications [1.988145627448243]
深層学習に基づく予後・健康管理(PHM)の信頼性の低さは、安全に重要な資産におけるその適用を妨げる。
本稿では,障害の診断とOODデータセット検出のための不確実性インフォームドフレームワークを提案する。
提案手法は, 安全クリティカルなアプリケーションにおいて, 未知に対処し, 故障診断の信頼性を高める上で特に有利であることを示す。
論文 参考訳(メタデータ) (2021-10-08T21:24:14Z) - Anytime Diagnosis for Reconfiguration [52.77024349608834]
我々は、いつでも直接診断できるflexdiagを紹介し分析する。
特徴モデルの領域からの構成ベンチマークと自動車領域からの産業構成知識ベースを使用して、性能および診断品質に関するアルゴリズムを評価します。
論文 参考訳(メタデータ) (2021-02-19T11:45:52Z) - Inheritance-guided Hierarchical Assignment for Clinical Automatic
Diagnosis [50.15205065710629]
臨床診断は、臨床ノートに基づいて患者に診断符号を割り当てることを目的としており、臨床意思決定において重要な役割を担っている。
本稿では,臨床自動診断のための継承誘導階層と共起グラフの伝播を組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-27T13:16:51Z) - Uncertainty aware and explainable diagnosis of retinal disease [0.0]
4つの網膜疾患の診断のための深層学習モデルの不確実性解析を行う。
不確実性が認識されている間にシステムが予測に使用する特徴は、システムが決定について確信が持たないときにハイライトする能力である。
論文 参考訳(メタデータ) (2021-01-26T23:37:30Z) - Towards Causality-Aware Inferring: A Sequential Discriminative Approach
for Medical Diagnosis [142.90770786804507]
医学診断アシスタント(MDA)は、疾患を識別するための症状を逐次調査する対話型診断エージェントを構築することを目的としている。
この研究は、因果図を利用して、MDAにおけるこれらの重要な問題に対処しようとする。
本稿では,他の記録から知識を引き出すことにより,非記録的調査に効果的に答える確率に基づく患者シミュレータを提案する。
論文 参考訳(メタデータ) (2020-03-14T02:05:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。