論文の概要: Calibrating Ensembles for Scalable Uncertainty Quantification in Deep
Learning-based Medical Segmentation
- arxiv url: http://arxiv.org/abs/2209.09563v1
- Date: Tue, 20 Sep 2022 09:09:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 18:10:14.730467
- Title: Calibrating Ensembles for Scalable Uncertainty Quantification in Deep
Learning-based Medical Segmentation
- Title(参考訳): 深層学習型医療セグメンテーションにおける拡張性不確実性定量化のための校正アンサンブル
- Authors: Thomas Buddenkotte, Lorena Escudero Sanchez, Mireia Crispin-Ortuzar,
Ramona Woitek, Cathal McCague, James D. Brenton, Ozan \"Oktem, Evis Sala,
Leonardo Rundo
- Abstract要約: 自動画像解析における不確かさの定量化は、多くのアプリケーションで非常に望まれている。
現在の不確実性定量化アプローチは、高次元実世界の問題ではうまくスケールしない。
本研究では,ディープラーニングモデルのアンサンブルを校正し,不確実な定量化測定を行うための,スケーラブルで直感的なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.42008820076301906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Uncertainty quantification in automated image analysis is highly desired in
many applications. Typically, machine learning models in classification or
segmentation are only developed to provide binary answers; however, quantifying
the uncertainty of the models can play a critical role for example in active
learning or machine human interaction. Uncertainty quantification is especially
difficult when using deep learning-based models, which are the state-of-the-art
in many imaging applications. The current uncertainty quantification approaches
do not scale well in high-dimensional real-world problems. Scalable solutions
often rely on classical techniques, such as dropout, during inference or
training ensembles of identical models with different random seeds to obtain a
posterior distribution. In this paper, we show that these approaches fail to
approximate the classification probability. On the contrary, we propose a
scalable and intuitive framework to calibrate ensembles of deep learning models
to produce uncertainty quantification measurements that approximate the
classification probability. On unseen test data, we demonstrate improved
calibration, sensitivity (in two out of three cases) and precision when being
compared with the standard approaches. We further motivate the usage of our
method in active learning, creating pseudo-labels to learn from unlabeled
images and human-machine collaboration.
- Abstract(参考訳): 自動画像解析における不確かさの定量化は、多くのアプリケーションで非常に望ましい。
通常、分類やセグメンテーションにおける機械学習モデルはバイナリな回答を提供するためにのみ開発されるが、モデルの不確実性を定量化することは、例えばアクティブな学習やマシンヒューマンインタラクションにおいて重要な役割を果たす。
多くのイメージング応用において最先端のディープラーニングモデルを使用する場合、不確かさの定量化は特に困難である。
現在の不確実量化アプローチは、高次元実世界の問題ではうまくスケールしない。
スケーラブルなソリューションは、後方分布を得るために、異なるランダムシードを持つ同一モデルの推論やトレーニングの間、ドロップアウトのような古典的なテクニックに依存することが多い。
本稿では,これらの手法が分類確率を近似できないことを示す。
そこで本研究では,ディープラーニングモデルのアンサンブルを校正し,分類確率を近似する不確実性定量化測定を行うスケーラブルで直感的なフレームワークを提案する。
未確認試験データでは,標準手法と比較した場合の校正精度,感度(3例中2例),精度が向上した。
さらに,この手法をアクティブラーニングに活用し,ラベルのない画像から学習するための擬似ラベルを作成し,人間と機械のコラボレーションを行う。
関連論文リスト
- Instance-wise Uncertainty for Class Imbalance in Semantic Segmentation [4.147659576493158]
最先端の手法はますます深層学習モデルに依存しており、不確実性を誤って推定し、予測を過度に信ずることが知られている。
これは、固有のクラス不均衡のため、セマンティックセグメンテーションにおいて特に問題となる。
セマンティックセグメンテーションに特化して設計された新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-07-17T14:38:32Z) - Uncertainty Quantification for cross-subject Motor Imagery classification [5.62479170374811]
不確実性定量化は、機械学習モデルがいつ間違っているかを決定することを目的としている。
ディープアンサンブルは、分類性能とクロスオブジェクト不確かさ定量化性能の両方において、最高の性能を示した。
ソフトマックス出力の標準CNNは、より先進的な手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-14T09:48:48Z) - Confidence-Aware and Self-Supervised Image Anomaly Localisation [7.099105239108548]
本稿では,ゆるやかな特徴的局所性制約による確率的推論の近似を支援する,自己教師付きシングルクラストレーニング戦略について論じる。
提案手法は,複数のオフ・オブ・ディストリビューション(OOD)検出モデルに統合されている。
論文 参考訳(メタデータ) (2023-03-23T12:48:47Z) - Multi-Head Multi-Loss Model Calibration [13.841172927454204]
我々は,深層アンサンブルの訓練と推論に要する費用を省く,単純化されたアンサンブルの形式を導入する。
具体的には、各頭部は、重み付きクロスエントロピー損失を最小限に抑えるために訓練されるが、重みは異なる枝によって異なる。
その結果,2つの挑戦データセットにおいて精度を犠牲にすることなく,精度の高いキャリブレーションを達成できることが示唆された。
論文 参考訳(メタデータ) (2023-03-02T09:32:32Z) - Benchmarking common uncertainty estimation methods with
histopathological images under domain shift and label noise [62.997667081978825]
リスクの高い環境では、深層学習モデルは不確実性を判断し、誤分類の可能性がかなり高い場合に入力を拒否しなければなりません。
我々は,全スライド画像の分類において,最もよく使われている不確実性と頑健さの厳密な評価を行う。
我々は一般的に,手法のアンサンブルが,ドメインシフトやラベルノイズに対するロバスト性の向上とともに,より良い不確実性評価につながることを観察する。
論文 参考訳(メタデータ) (2023-01-03T11:34:36Z) - On Calibrating Semantic Segmentation Models: Analyses and An Algorithm [51.85289816613351]
セマンティックセグメンテーションキャリブレーションの問題について検討する。
モデルキャパシティ、作物サイズ、マルチスケールテスト、予測精度はキャリブレーションに影響を及ぼす。
我々は、単純で統一的で効果的なアプローチ、すなわち選択的スケーリングを提案する。
論文 参考訳(メタデータ) (2022-12-22T22:05:16Z) - Post-hoc Uncertainty Learning using a Dirichlet Meta-Model [28.522673618527417]
本研究では,不確実性定量化能力の優れた事前学習モデルを構築するための新しいベイズメタモデルを提案する。
提案手法は追加のトレーニングデータを必要としないため,不確かさの定量化に十分な柔軟性がある。
提案するメタモデルアプローチの柔軟性と,これらのアプリケーションに対する優れた経験的性能を実証する。
論文 参考訳(メタデータ) (2022-12-14T17:34:11Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Entropy-Based Uncertainty Calibration for Generalized Zero-Shot Learning [49.04790688256481]
一般化ゼロショット学習(GZSL)の目的は、目に見えないクラスと見えないクラスの両方を認識することである。
ほとんどのGZSLメソッドは、通常、見えないクラスの意味情報から視覚表現を合成することを学ぶ。
本論文では,三重項損失を持つ2重変分オートエンコーダを利用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-09T05:21:27Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。