論文の概要: Improving Trustworthiness of AI Disease Severity Rating in Medical
Imaging with Ordinal Conformal Prediction Sets
- arxiv url: http://arxiv.org/abs/2207.02238v1
- Date: Tue, 5 Jul 2022 18:01:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 08:00:30.977167
- Title: Improving Trustworthiness of AI Disease Severity Rating in Medical
Imaging with Ordinal Conformal Prediction Sets
- Title(参考訳): 整形予測セットを用いた画像診断におけるAI病重症度評価の信頼性向上
- Authors: Charles Lu, Anastasios N. Angelopoulos, Stuart Pomerantz
- Abstract要約: 統計的に厳密な不確実性定量化の欠如は、AI結果の信頼を損なう重要な要因である。
分布自由不確実性定量化の最近の進歩は、これらの問題に対する実用的な解決策である。
本稿では, 正しい狭窄の重症度を含むことが保証される順序予測セットを形成する手法を実証する。
- 参考スコア(独自算出の注目度): 0.7734726150561088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The regulatory approval and broad clinical deployment of medical AI have been
hampered by the perception that deep learning models fail in unpredictable and
possibly catastrophic ways. A lack of statistically rigorous uncertainty
quantification is a significant factor undermining trust in AI results. Recent
developments in distribution-free uncertainty quantification present practical
solutions for these issues by providing reliability guarantees for black-box
models on arbitrary data distributions as formally valid finite-sample
prediction intervals. Our work applies these new uncertainty quantification
methods -- specifically conformal prediction -- to a deep-learning model for
grading the severity of spinal stenosis in lumbar spine MRI. We demonstrate a
technique for forming ordinal prediction sets that are guaranteed to contain
the correct stenosis severity within a user-defined probability (confidence
interval). On a dataset of 409 MRI exams processed by the deep-learning model,
the conformal method provides tight coverage with small prediction set sizes.
Furthermore, we explore the potential clinical applicability of flagging cases
with high uncertainty predictions (large prediction sets) by quantifying an
increase in the prevalence of significant imaging abnormalities (e.g. motion
artifacts, metallic artifacts, and tumors) that could degrade confidence in
predictive performance when compared to a random sample of cases.
- Abstract(参考訳): 規制の承認と医療aiの広範な臨床展開は、ディープラーニングモデルが予測不能で破滅的な方法で失敗するという認識によって妨げられている。
統計的に厳密な不確実性定量化の欠如は、AI結果の信頼を損なう重要な要因である。
分布のない不確実性定量化の最近の進展は、任意のデータ分布上のブラックボックスモデルの信頼性保証を形式的に有効な有限サンプル予測間隔として提供することで、これらの問題に対して実用的な解決策を提供する。
我々の研究は、腰椎MRIにおける脊柱狭窄の重症度を評価するためのディープラーニングモデルに、これらの新しい不確実性定量化手法(特に共形予測)を適用した。
ユーザ定義確率(信頼区間)内に適切な狭窄度を含むことを保証された順序予測セットを形成する手法を示す。
ディープラーニングモデルによって処理された409個のMRI検査のデータセットにおいて、コンフォメーション法は小さな予測セットサイズで厳密なカバレッジを提供する。
また,不確かさの高い症例 (大きな予測セット) に対して, ランダムな症例と比較して予測性能の信頼性を低下させる重要な画像異常(例えば, モーションアーティファクト, メタルアーティファクト, 腫瘍)の出現率を定量化し, 臨床応用の可能性を検討した。
関連論文リスト
- HypUC: Hyperfine Uncertainty Calibration with Gradient-boosted
Corrections for Reliable Regression on Imbalanced Electrocardiograms [3.482894964998886]
本稿では,医療時系列における不均衡確率回帰の枠組みであるHypUCを提案する。
HypUCは数百万の患者から収集された、多様で現実世界のECGデータセットで評価されている。
論文 参考訳(メタデータ) (2023-11-23T06:17:31Z) - Quantifying Uncertainty in Deep Learning Classification with Noise in
Discrete Inputs for Risk-Based Decision Making [1.529943343419486]
本稿では,Deep Neural Network(DNN)モデルの予測不確実性を定量化する数学的枠組みを提案する。
予測の不確実性は、既知の有限離散分布に従う予測器の誤差から生じる。
提案フレームワークは,予測器の離散誤差が存在する場合のアプリケーションにおけるリスクベースの意思決定を支援する。
論文 参考訳(メタデータ) (2023-10-09T19:26:24Z) - Uncertainty estimations methods for a deep learning model to aid in
clinical decision-making -- a clinician's perspective [0.0]
深層学習にインスパイアされた不確実性推定技術はいくつかあるが、医療データセットに実装されているものはほとんどない。
我々は,不確かさを推定するために,ドロップアウト変動推論(DO),テスト時間拡張(TTA),共形予測,単一決定論的手法を比較した。
臨床実習にモデルを組み込む前に,複数の推定手法を評価することが重要である。
論文 参考訳(メタデータ) (2022-10-02T17:54:54Z) - Uncertainty-Informed Deep Learning Models Enable High-Confidence
Predictions for Digital Histopathology [40.96261204117952]
肺腺癌と扁平上皮癌を鑑別するモデルを訓練し,高い信頼度予測がUQなしで予測を上回ることを示す。
非肺癌コホートに対する腺癌と扁平上皮癌との高信頼度予測を精度良く行うことで, 領域シフトの設定においてUQ閾値の信頼性が保たれることを示す。
論文 参考訳(メタデータ) (2022-04-09T17:35:37Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Uncertainty-Aware Training for Cardiac Resynchronisation Therapy
Response Prediction [3.090173647095682]
予測の不確実性の定量化は、そのような解釈可能性を提供し、信頼を促進する1つの方法である。
心臓磁気共鳴画像からの心再同期治療応答予測のためのDLモデルのデータ(アラート的)とモデル(緊急的)の不確かさを定量化する。
我々は、既存のDL画像に基づく分類モデルを再訓練し、正しい予測の信頼性を高めるために使用できる不確実性認識損失関数を予備検討する。
論文 参考訳(メタデータ) (2021-09-22T10:37:50Z) - When in Doubt: Neural Non-Parametric Uncertainty Quantification for
Epidemic Forecasting [70.54920804222031]
既存の予測モデルは不確実な定量化を無視し、誤校正予測をもたらす。
不確実性を考慮した時系列予測のためのディープニューラルネットワークの最近の研究にもいくつかの制限がある。
本稿では,予測タスクを確率的生成過程としてモデル化し,EPIFNPと呼ばれる機能的ニューラルプロセスモデルを提案する。
論文 参考訳(メタデータ) (2021-06-07T18:31:47Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。