論文の概要: Uncertainty-Aware Training for Cardiac Resynchronisation Therapy
Response Prediction
- arxiv url: http://arxiv.org/abs/2109.10641v1
- Date: Wed, 22 Sep 2021 10:37:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 13:50:33.895110
- Title: Uncertainty-Aware Training for Cardiac Resynchronisation Therapy
Response Prediction
- Title(参考訳): 心臓再同期治療反応予測のための不確実性意識トレーニング
- Authors: Tareen Dawood, Chen Chen, Robin Andlauer, Baldeep S. Sidhu, Bram
Ruijsink, Justin Gould, Bradley Porter, Mark Elliott, Vishal Mehta, C. Aldo
Rinaldi, Esther Puyol-Ant\'on, Reza Razavi, Andrew P. King
- Abstract要約: 予測の不確実性の定量化は、そのような解釈可能性を提供し、信頼を促進する1つの方法である。
心臓磁気共鳴画像からの心再同期治療応答予測のためのDLモデルのデータ(アラート的)とモデル(緊急的)の不確かさを定量化する。
我々は、既存のDL画像に基づく分類モデルを再訓練し、正しい予測の信頼性を高めるために使用できる不確実性認識損失関数を予備検討する。
- 参考スコア(独自算出の注目度): 3.090173647095682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluation of predictive deep learning (DL) models beyond conventional
performance metrics has become increasingly important for applications in
sensitive environments like healthcare. Such models might have the capability
to encode and analyse large sets of data but they often lack comprehensive
interpretability methods, preventing clinical trust in predictive outcomes.
Quantifying uncertainty of a prediction is one way to provide such
interpretability and promote trust. However, relatively little attention has
been paid to how to include such requirements into the training of the model.
In this paper we: (i) quantify the data (aleatoric) and model (epistemic)
uncertainty of a DL model for Cardiac Resynchronisation Therapy response
prediction from cardiac magnetic resonance images, and (ii) propose and perform
a preliminary investigation of an uncertainty-aware loss function that can be
used to retrain an existing DL image-based classification model to encourage
confidence in correct predictions and reduce confidence in incorrect
predictions. Our initial results are promising, showing a significant increase
in the (epistemic) confidence of true positive predictions, with some evidence
of a reduction in false negative confidence.
- Abstract(参考訳): 従来のパフォーマンス指標を超える予測ディープラーニング(DL)モデルの評価は、医療などのセンシティブな環境におけるアプリケーションにとってますます重要になっている。
このようなモデルには大量のデータをエンコードして分析する能力があるかも知れませんが、包括的な解釈方法が欠如しており、予測結果に対する臨床的な信頼が妨げられます。
予測の不確実性の定量化は、そのような解釈可能性を提供し、信頼を促進する1つの方法である。
しかし、そのような要件をモデルのトレーニングに組み込む方法については、比較的注意が払われていない。
本論文では,
一 心臓磁気共鳴画像からの心臓再同期治療応答予測のためのDLモデルのデータ(アラート的)とモデル(緊急的)不確かさの定量化及び
二 既存のDL画像に基づく分類モデルを再訓練し、正しい予測の信頼性を高め、誤予測の信頼性を低下させる不確実性認識損失関数を予備検討し、実施すること。
最初の結果は有望であり、正の正の予測に対する(現在)信頼が著しく増加し、偽の負の信頼が低下する証拠がいくつかある。
関連論文リスト
- Selective Learning: Towards Robust Calibration with Dynamic
Regularization [93.2503677723367]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - HypUC: Hyperfine Uncertainty Calibration with Gradient-boosted
Corrections for Reliable Regression on Imbalanced Electrocardiograms [3.482894964998886]
本稿では,医療時系列における不均衡確率回帰の枠組みであるHypUCを提案する。
HypUCは数百万の患者から収集された、多様で現実世界のECGデータセットで評価されている。
論文 参考訳(メタデータ) (2023-11-23T06:17:31Z) - Uncertainty estimations methods for a deep learning model to aid in
clinical decision-making -- a clinician's perspective [0.0]
深層学習にインスパイアされた不確実性推定技術はいくつかあるが、医療データセットに実装されているものはほとんどない。
我々は,不確かさを推定するために,ドロップアウト変動推論(DO),テスト時間拡張(TTA),共形予測,単一決定論的手法を比較した。
臨床実習にモデルを組み込む前に,複数の推定手法を評価することが重要である。
論文 参考訳(メタデータ) (2022-10-02T17:54:54Z) - Improving Trustworthiness of AI Disease Severity Rating in Medical
Imaging with Ordinal Conformal Prediction Sets [0.7734726150561088]
統計的に厳密な不確実性定量化の欠如は、AI結果の信頼を損なう重要な要因である。
分布自由不確実性定量化の最近の進歩は、これらの問題に対する実用的な解決策である。
本稿では, 正しい狭窄の重症度を含むことが保証される順序予測セットを形成する手法を実証する。
論文 参考訳(メタデータ) (2022-07-05T18:01:20Z) - Loss Estimators Improve Model Generalization [36.520569284970456]
予測モデルと並行して損失推定器を訓練し,対照訓練目標を用いて予測の不確実性を直接推定する。
モデル一般化における損失推定器の影響を,その分布データに対する忠実度と,トレーニング中に見つからない分布サンプルや新しいクラスの検出能力の両方の観点から示す。
論文 参考訳(メタデータ) (2021-03-05T16:35:10Z) - Learning to Predict with Supporting Evidence: Applications to Clinical
Risk Prediction [9.199022926064009]
機械学習モデルがヘルスケアに与える影響は、医療専門家がこれらのモデルによって予測される信頼度に依存する。
予測が信頼されるべき理由に関するドメイン関連証拠を,臨床専門性のある人に提供するための方法を提示する。
論文 参考訳(メタデータ) (2021-03-04T00:26:32Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。