論文の概要: EDUE: Expert Disagreement-Guided One-Pass Uncertainty Estimation for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2403.16594v1
- Date: Mon, 25 Mar 2024 10:13:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 15:08:28.659514
- Title: EDUE: Expert Disagreement-Guided One-Pass Uncertainty Estimation for Medical Image Segmentation
- Title(参考訳): EDUE:医用画像分割のためのエキスパート診断ガイド付きワンパス不確実性評価
- Authors: Kudaibergen Abutalip, Numan Saeed, Ikboljon Sobirov, Vincent Andrearczyk, Adrien Depeursinge, Mohammad Yaqub,
- Abstract要約: 本稿では,医用画像分割のためのエキスパート診断誘導不確実性推定(EDUE)を提案する。
複数のラッカーからの接地構文アノテーションの可変性を活用することにより、トレーニング中のモデルをガイドし、ランダムサンプリングに基づく戦略を取り入れ、校正信頼性を高める。
- 参考スコア(独自算出の注目度): 1.757276115858037
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deploying deep learning (DL) models in medical applications relies on predictive performance and other critical factors, such as conveying trustworthy predictive uncertainty. Uncertainty estimation (UE) methods provide potential solutions for evaluating prediction reliability and improving the model confidence calibration. Despite increasing interest in UE, challenges persist, such as the need for explicit methods to capture aleatoric uncertainty and align uncertainty estimates with real-life disagreements among domain experts. This paper proposes an Expert Disagreement-Guided Uncertainty Estimation (EDUE) for medical image segmentation. By leveraging variability in ground-truth annotations from multiple raters, we guide the model during training and incorporate random sampling-based strategies to enhance calibration confidence. Our method achieves 55% and 23% improvement in correlation on average with expert disagreements at the image and pixel levels, respectively, better calibration, and competitive segmentation performance compared to the state-of-the-art deep ensembles, requiring only a single forward pass.
- Abstract(参考訳): 医学応用におけるディープラーニング(DL)モデルの展開は、信頼できる予測の不確実性を伝えるなど、予測性能やその他の重要な要因に依存する。
不確実性推定(UE)法は、予測信頼性を評価し、モデルの信頼性校正を改善する潜在的な解決策を提供する。
UEへの関心は高まっているが、アレタリック不確実性を捕捉し、不確実性の推定をドメインの専門家の間で現実的な不一致と整合させる明示的な方法の必要性など、課題は続いている。
本稿では,医用画像分割のためのエキスパート診断誘導不確実性推定(EDUE)を提案する。
複数のラッカーからの接地構文アノテーションの可変性を活用することにより、トレーニング中のモデルをガイドし、ランダムサンプリングに基づく戦略を取り入れ、校正信頼性を高める。
提案手法は, 画像と画素レベルでの相違点, キャリブレーション, セグメンテーション性能が, 最先端のディープアンサンブルに比べて55%, 23%向上し, フォワードパスは1回程度であった。
関連論文リスト
- Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - Adaptive Uncertainty Estimation via High-Dimensional Testing on Latent
Representations [28.875819909902244]
不確実性推定は、訓練されたディープニューラルネットワークの信頼性を評価することを目的としている。
既存の不確実性推定アプローチは、低次元分布仮定に依存している。
本研究では,不確実性推定のためのデータ適応型高次元仮説テストを用いた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-25T12:22:18Z) - Binary Classification with Confidence Difference [100.08818204756093]
本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
論文 参考訳(メタデータ) (2023-10-09T11:44:50Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - EVIL: Evidential Inference Learning for Trustworthy Semi-supervised
Medical Image Segmentation [7.58442624111591]
半教師付き医用画像セグメンテーションにEVIL(Evidential Inference Learning)を導入する。
EVILは理論上保証されたソリューションを提供し、単一の前方通過において正確な定量化の不確かさを推測する。
EVILは,公開データセット上のいくつかの最先端手法と比較して,競争性能が向上することを示す。
論文 参考訳(メタデータ) (2023-07-18T05:59:27Z) - Towards Reliable Medical Image Segmentation by utilizing Evidential Calibrated Uncertainty [52.03490691733464]
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を利用して、医用画像分割の問題に対する確率と不確実性を明示的にモデル化する。
DeviSには不確実性を考慮したフィルタリングモジュールが組み込まれている。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Uncertainty-Aware Training for Cardiac Resynchronisation Therapy
Response Prediction [3.090173647095682]
予測の不確実性の定量化は、そのような解釈可能性を提供し、信頼を促進する1つの方法である。
心臓磁気共鳴画像からの心再同期治療応答予測のためのDLモデルのデータ(アラート的)とモデル(緊急的)の不確かさを定量化する。
我々は、既存のDL画像に基づく分類モデルを再訓練し、正しい予測の信頼性を高めるために使用できる不確実性認識損失関数を予備検討する。
論文 参考訳(メタデータ) (2021-09-22T10:37:50Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Diagnostic Uncertainty Calibration: Towards Reliable Machine Predictions
in Medical Domain [20.237847764018138]
本稿では,ラベルの不確実性の存在下でのクラス確率推定(CPE)の評価フレームワークを提案する。
また,レータ間不一致を含む高次統計量の評価指標を定式化した。
提案手法は,不確実性推定の信頼性を著しく向上させることを示す。
論文 参考訳(メタデータ) (2020-07-03T12:54:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。