論文の概要: Improving Trustworthiness of AI Disease Severity Rating in Medical
Imaging with Ordinal Conformal Prediction Sets
- arxiv url: http://arxiv.org/abs/2207.02238v1
- Date: Tue, 5 Jul 2022 18:01:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 08:00:30.977167
- Title: Improving Trustworthiness of AI Disease Severity Rating in Medical
Imaging with Ordinal Conformal Prediction Sets
- Title(参考訳): 整形予測セットを用いた画像診断におけるAI病重症度評価の信頼性向上
- Authors: Charles Lu, Anastasios N. Angelopoulos, Stuart Pomerantz
- Abstract要約: 統計的に厳密な不確実性定量化の欠如は、AI結果の信頼を損なう重要な要因である。
分布自由不確実性定量化の最近の進歩は、これらの問題に対する実用的な解決策である。
本稿では, 正しい狭窄の重症度を含むことが保証される順序予測セットを形成する手法を実証する。
- 参考スコア(独自算出の注目度): 0.7734726150561088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The regulatory approval and broad clinical deployment of medical AI have been
hampered by the perception that deep learning models fail in unpredictable and
possibly catastrophic ways. A lack of statistically rigorous uncertainty
quantification is a significant factor undermining trust in AI results. Recent
developments in distribution-free uncertainty quantification present practical
solutions for these issues by providing reliability guarantees for black-box
models on arbitrary data distributions as formally valid finite-sample
prediction intervals. Our work applies these new uncertainty quantification
methods -- specifically conformal prediction -- to a deep-learning model for
grading the severity of spinal stenosis in lumbar spine MRI. We demonstrate a
technique for forming ordinal prediction sets that are guaranteed to contain
the correct stenosis severity within a user-defined probability (confidence
interval). On a dataset of 409 MRI exams processed by the deep-learning model,
the conformal method provides tight coverage with small prediction set sizes.
Furthermore, we explore the potential clinical applicability of flagging cases
with high uncertainty predictions (large prediction sets) by quantifying an
increase in the prevalence of significant imaging abnormalities (e.g. motion
artifacts, metallic artifacts, and tumors) that could degrade confidence in
predictive performance when compared to a random sample of cases.
- Abstract(参考訳): 規制の承認と医療aiの広範な臨床展開は、ディープラーニングモデルが予測不能で破滅的な方法で失敗するという認識によって妨げられている。
統計的に厳密な不確実性定量化の欠如は、AI結果の信頼を損なう重要な要因である。
分布のない不確実性定量化の最近の進展は、任意のデータ分布上のブラックボックスモデルの信頼性保証を形式的に有効な有限サンプル予測間隔として提供することで、これらの問題に対して実用的な解決策を提供する。
我々の研究は、腰椎MRIにおける脊柱狭窄の重症度を評価するためのディープラーニングモデルに、これらの新しい不確実性定量化手法(特に共形予測)を適用した。
ユーザ定義確率(信頼区間)内に適切な狭窄度を含むことを保証された順序予測セットを形成する手法を示す。
ディープラーニングモデルによって処理された409個のMRI検査のデータセットにおいて、コンフォメーション法は小さな予測セットサイズで厳密なカバレッジを提供する。
また,不確かさの高い症例 (大きな予測セット) に対して, ランダムな症例と比較して予測性能の信頼性を低下させる重要な画像異常(例えば, モーションアーティファクト, メタルアーティファクト, 腫瘍)の出現率を定量化し, 臨床応用の可能性を検討した。
関連論文リスト
- SepsisLab: Early Sepsis Prediction with Uncertainty Quantification and Active Sensing [67.8991481023825]
セプシスは米国での院内死亡の主な原因である。
既存の予測モデルは通常、情報不足の少ない高品質なデータで訓練される。
限られた観察により信頼性の低い高リスク患者に対して,ロバストな能動センシングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-24T04:47:36Z) - Deep Evidential Learning for Radiotherapy Dose Prediction [0.0]
本稿では放射線治療用線量予測分野におけるDeep Evidential Learningと呼ばれる不確実性定量化フレームワークの新たな応用法を提案する。
このモデルは,ネットワークトレーニング完了時の予測誤差と相関関係を持つ不確実性推定に有効に活用できることを見出した。
論文 参考訳(メタデータ) (2024-04-26T02:43:45Z) - Improving Robustness and Reliability in Medical Image Classification with Latent-Guided Diffusion and Nested-Ensembles [4.249986624493547]
深層学習は高い予測精度と不確実性推定を実現することが示されている。
テスト時の入力画像のゆがみは、パフォーマンスを著しく低下させる可能性がある。
LaDiNEは,入力画像から情報および不変潜伏変数を推定できる,新規で堅牢な確率的手法である。
論文 参考訳(メタデータ) (2023-10-24T15:53:07Z) - Towards Reliable Medical Image Segmentation by utilizing Evidential Calibrated Uncertainty [52.03490691733464]
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を利用して、医用画像分割の問題に対する確率と不確実性を明示的にモデル化する。
DeviSには不確実性を考慮したフィルタリングモジュールが組み込まれている。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - Uncertainty-Informed Deep Learning Models Enable High-Confidence
Predictions for Digital Histopathology [40.96261204117952]
肺腺癌と扁平上皮癌を鑑別するモデルを訓練し,高い信頼度予測がUQなしで予測を上回ることを示す。
非肺癌コホートに対する腺癌と扁平上皮癌との高信頼度予測を精度良く行うことで, 領域シフトの設定においてUQ閾値の信頼性が保たれることを示す。
論文 参考訳(メタデータ) (2022-04-09T17:35:37Z) - Uncertainty-Aware Training for Cardiac Resynchronisation Therapy
Response Prediction [3.090173647095682]
予測の不確実性の定量化は、そのような解釈可能性を提供し、信頼を促進する1つの方法である。
心臓磁気共鳴画像からの心再同期治療応答予測のためのDLモデルのデータ(アラート的)とモデル(緊急的)の不確かさを定量化する。
我々は、既存のDL画像に基づく分類モデルを再訓練し、正しい予測の信頼性を高めるために使用できる不確実性認識損失関数を予備検討する。
論文 参考訳(メタデータ) (2021-09-22T10:37:50Z) - When in Doubt: Neural Non-Parametric Uncertainty Quantification for
Epidemic Forecasting [70.54920804222031]
既存の予測モデルは不確実な定量化を無視し、誤校正予測をもたらす。
不確実性を考慮した時系列予測のためのディープニューラルネットワークの最近の研究にもいくつかの制限がある。
本稿では,予測タスクを確率的生成過程としてモデル化し,EPIFNPと呼ばれる機能的ニューラルプロセスモデルを提案する。
論文 参考訳(メタデータ) (2021-06-07T18:31:47Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z) - Bayesian Modelling in Practice: Using Uncertainty to Improve Trustworthiness in Medical Applications [2.446672595462589]
集中治療室(Intensive Care Unit、ICU)は、機械学習が臨床的意思決定に有用な支援を提供する可能性がある病院部門である。
実際には、破滅的な治療決定を未然に防ぐために、余計な治療を受けた医師に不確実な予測を提示すべきである。
ベイジアンモデリングとそれが提供する予測の不確実性が、誤った予測のリスクを軽減するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2019-06-20T13:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。