論文の概要: Modeling Clinical Uncertainty in Radiology Reports: from Explicit Uncertainty Markers to Implicit Reasoning Pathways
- arxiv url: http://arxiv.org/abs/2511.04506v1
- Date: Thu, 06 Nov 2025 16:24:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.50018
- Title: Modeling Clinical Uncertainty in Radiology Reports: from Explicit Uncertainty Markers to Implicit Reasoning Pathways
- Title(参考訳): 放射線診断における臨床的不確かさのモデル化 : 明示的不確かさマーカーから不確かさ推論経路まで
- Authors: Paloma Rabaey, Jong Hak Moon, Jung-Oh Lee, Min Gwan Kim, Hangyul Yoon, Thomas Demeester, Edward Choi,
- Abstract要約: 明示的な不確実性は、ヘッジフレーズを通じて伝達される発見の有無についての疑念を反映している。
入射不確実性は、放射線学者がその推論の一部を省略し、重要な発見や診断のみを記録するときに生じる。
ここでは、省略された所見が真に欠如しているか、単に軽快のため欠落しているかは、しばしば不明である。
我々は、エキスパート検証されたLLMベースの共通ヘッジフレーズの基準ランキングを作成し、この基準に基づいて各発見を確率値にマッピングすることで、明確な不確実性を定量化する。
さらに、14の共通診断のための専門家定義診断経路から派生した特徴的サブフィンディングを体系的に付加する拡張フレームワークを通じて暗黙的な不確実性をモデル化する。
- 参考スコア(独自算出の注目度): 16.76473492794096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Radiology reports are invaluable for clinical decision-making and hold great potential for automated analysis when structured into machine-readable formats. These reports often contain uncertainty, which we categorize into two distinct types: (i) Explicit uncertainty reflects doubt about the presence or absence of findings, conveyed through hedging phrases. These vary in meaning depending on the context, making rule-based systems insufficient to quantify the level of uncertainty for specific findings; (ii) Implicit uncertainty arises when radiologists omit parts of their reasoning, recording only key findings or diagnoses. Here, it is often unclear whether omitted findings are truly absent or simply unmentioned for brevity. We address these challenges with a two-part framework. We quantify explicit uncertainty by creating an expert-validated, LLM-based reference ranking of common hedging phrases, and mapping each finding to a probability value based on this reference. In addition, we model implicit uncertainty through an expansion framework that systematically adds characteristic sub-findings derived from expert-defined diagnostic pathways for 14 common diagnoses. Using these methods, we release Lunguage++, an expanded, uncertainty-aware version of the Lunguage benchmark of fine-grained structured radiology reports. This enriched resource enables uncertainty-aware image classification, faithful diagnostic reasoning, and new investigations into the clinical impact of diagnostic uncertainty.
- Abstract(参考訳): 放射線学の報告は臨床的意思決定には有用であり、機械可読形式に構造化された場合、自動解析の大きな可能性を秘めている。
これらの報告は、しばしば不確実性を含み、我々は2つの異なるタイプに分類する。
一 明確な不確実性は、発見の有無についての疑念を反映し、ヘッジフレーズによって伝えられる。
これらは、文脈によって異なるため、特定の発見に対する不確実性のレベルを定量化するのにルールベースのシステムが不十分である。
二 放射線技師がその推論の一部を省略し、重要な所見又は診断のみを記録するときに、不確実性が発生すること。
ここでは、省略された所見が真に欠如しているか、単に軽快のため欠落しているかは、しばしば不明である。
これらの課題に,2部構成のフレームワークで対処する。
我々は、エキスパート検証されたLLMベースの共通ヘッジフレーズの基準ランキングを作成し、この基準に基づいて各発見を確率値にマッピングすることで、明確な不確実性を定量化する。
さらに、14の共通診断のための専門家定義診断経路から派生した特徴的サブフィンディングを体系的に付加する拡張フレームワークを通じて暗黙的な不確実性をモデル化する。
これらの手法を用いて,詳細な構造化ラジオグラフィーレポートのLunguageベンチマークの,拡張された不確実性対応バージョンであるLunguage++をリリースする。
この濃縮された資源は、不確実性を認識した画像分類、忠実な診断推論、および診断の不確実性の臨床的影響に関する新たな研究を可能にする。
関連論文リスト
- RAD: Towards Trustworthy Retrieval-Augmented Multi-modal Clinical Diagnosis [56.373297358647655]
Retrieval-Augmented Diagnosis (RAD)は、下流タスクで直接マルチモーダルモデルに外部知識を注入する新しいフレームワークである。
RADは、複数の医療ソースからの疾患中心の知識の検索と改善、ガイドライン強化コントラスト損失トランスフォーマー、デュアルデコーダの3つの主要なメカニズムで機能する。
論文 参考訳(メタデータ) (2025-09-24T10:36:14Z) - Multi-pathology Chest X-ray Classification with Rejection Mechanisms [36.0596663889937]
ディープラーニングモデルの過信は、高精細度の医療画像タスクにおいて重大なリスクをもたらす。
本研究では,DenseNet-121バックボーンを用いた胸部X線診断のための不確実性認識フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-12T15:36:26Z) - Benchmarking Uncertainty and its Disentanglement in multi-label Chest X-Ray Classification [11.21639536740362]
コンボリューション(ResNet)とトランスフォーマー(Vision Transformer)アーキテクチャにおける13の不確実性定量化手法を評価する。
Evidential Deep Learning, HetClass NNs, Deep Deterministic Uncertaintyをマルチラベル設定に拡張する。
論文 参考訳(メタデータ) (2025-08-06T13:58:17Z) - SURE-Med: Systematic Uncertainty Reduction for Enhanced Reliability in Medical Report Generation [2.2185034594788164]
視覚, 分布, 文脈の3つの重要な次元における不確実性を体系的に低減する統合フレームワークSURE-Medを提案する。
視覚的不確実性を軽減するため、Frontal-Aware View Resamplingモジュールはビューアノテーションエラーを修正し、補足ビューから情報的特徴を適応的に選択する。
ラベル分布の不確実性に対処するために,批判的診断文のモデリングを促進させるToken Sensitive Learningの目標を提案する。
文脈不確実性を低減するため、文脈証拠フィルタは、現在の画像と整合する事前情報を検証し、選択的に組み込んで、幻覚を効果的に抑制する。
論文 参考訳(メタデータ) (2025-08-03T09:52:30Z) - Uncertainty-Aware Large Language Models for Explainable Disease Diagnosis [11.093388930528022]
ConfiDx(コンフィデックス)は、オープンソースのLLMを微調整し、診断基準で作成した、不確実性を考慮した大規模言語モデル(LLM)である。
タスクを形式化し、さまざまな診断の曖昧さを捉えるリッチな注釈付きデータセットを組み立てました。
論文 参考訳(メタデータ) (2025-05-06T12:12:48Z) - Uncertainty-aware abstention in medical diagnosis based on medical texts [87.88110503208016]
本研究は,AI支援医療診断における信頼性の重要課題について論じる。
本研究は,診断に自信がなければ,診断システムによる意思決定の回避を可能にする選択予測手法に焦点をあてる。
我々は、選択予測タスクにおける信頼性を高めるための新しい最先端手法であるHUQ-2を紹介する。
論文 参考訳(メタデータ) (2025-02-25T10:15:21Z) - Expert Uncertainty and Severity Aware Chest X-Ray Classification by
Multi-Relationship Graph Learning [48.29204631769816]
我々はCXRレポートから病気ラベルを再抽出し,重症度と分類の不確実性を考慮し,より現実的になるようにした。
以上の結果から, 疾患の重症度と不確実性を考慮したモデルが, 従来の最先端手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-09-06T19:19:41Z) - Evaluating AI systems under uncertain ground truth: a case study in dermatology [43.8328264420381]
不確実性を無視することは、モデル性能の過度に楽観的な推定につながることを示す。
皮膚状態の分類では,データセットの大部分が重大な真理不確実性を示すことが判明した。
論文 参考訳(メタデータ) (2023-07-05T10:33:45Z) - Towards Reliable Medical Image Segmentation by Modeling Evidential Calibrated Uncertainty [57.023423137202485]
医用画像のセグメンテーションの信頼性に関する懸念が臨床医の間で続いている。
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を活用することで、医用画像分割の確率と不確実性を明示的にモデル化する。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。