論文の概要: Exploring Instance-Level Uncertainty for Medical Detection
- arxiv url: http://arxiv.org/abs/2012.12880v3
- Date: Sun, 7 Feb 2021 16:06:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 18:06:45.643613
- Title: Exploring Instance-Level Uncertainty for Medical Detection
- Title(参考訳): 医療検出におけるインスタンスレベルの不確実性の検討
- Authors: Jiawei Yang, Yuan Liang, Yao Zhang, Weinan Song, Kun Wang, Lei He
- Abstract要約: 本研究では、2つの異なる境界ボックスレベル(またはインスタンスレベル)の不確実性推定で2.5D検出CNNを増強する。
LUNA16データセットの肺結節検出のための実験は、重要な意味的曖昧さが存在する可能性があるタスクである。
その結果,両種類の分散の組み合わせを用いて評価スコアを84.57%から88.86%に改善した。
- 参考スコア(独自算出の注目度): 16.637462795585773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability of deep learning to predict with uncertainty is recognized as key
for its adoption in clinical routines. Moreover, performance gain has been
enabled by modelling uncertainty according to empirical evidence. While
previous work has widely discussed the uncertainty estimation in segmentation
and classification tasks, its application on bounding-box-based detection has
been limited, mainly due to the challenge of bounding box aligning. In this
work, we explore to augment a 2.5D detection CNN with two different
bounding-box-level (or instance-level) uncertainty estimates, i.e., predictive
variance and Monte Carlo (MC) sample variance. Experiments are conducted for
lung nodule detection on LUNA16 dataset, a task where significant semantic
ambiguities can exist between nodules and non-nodules. Results show that our
method improves the evaluating score from 84.57% to 88.86% by utilizing a
combination of both types of variances. Moreover, we show the generated
uncertainty enables superior operating points compared to using the probability
threshold only, and can further boost the performance to 89.52%. Example nodule
detections are visualized to further illustrate the advantages of our method.
- Abstract(参考訳): 不確実性を予測できる深層学習の能力は、臨床ルーチンにおける導入の鍵として認識されている。
さらに、実証的な証拠に従って不確実性をモデル化することで、性能向上を実現している。
セグメンテーションと分類タスクにおける不確実性の推定については,これまで広く議論されてきたが,境界ボックスの整合性の問題から,境界ボックスに基づく検出への応用は限られている。
本研究では,2つの異なる境界ボックスレベル(またはインスタンスレベル)の不確実性推定,すなわち予測分散とモンテカルロサンプル分散を用いた2.5D検出CNNの拡張について検討する。
肺結節検出実験はLUNA16データセット上で行われ、結節と非結節の間に重要な意味的曖昧性が存在する。
その結果,両種類の分散の組み合わせを用いて評価スコアを84.57%から88.86%に改善した。
さらに,生成した不確実性は,確率しきい値のみを使用するのに比べ,操作点が優れていることを示し,さらに89.52%まで性能を向上できることを示した。
本手法の利点をさらに説明するために,実例の結節検出を可視化する。
関連論文リスト
- Deep Evidential Learning for Radiotherapy Dose Prediction [0.0]
本稿では放射線治療用線量予測分野におけるDeep Evidential Learningと呼ばれる不確実性定量化フレームワークの新たな応用法を提案する。
このモデルは,ネットワークトレーニング完了時の予測誤差と相関関係を持つ不確実性推定に有効に活用できることを見出した。
論文 参考訳(メタデータ) (2024-04-26T02:43:45Z) - Model-Based Uncertainty in Value Functions [89.31922008981735]
MDP上の分布によって引き起こされる値の分散を特徴付けることに重点を置いている。
従来の作業は、いわゆる不確実性ベルマン方程式を解くことで、値よりも後方の分散を境界にしている。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式を提案する。
論文 参考訳(メタデータ) (2023-02-24T09:18:27Z) - Benchmarking common uncertainty estimation methods with
histopathological images under domain shift and label noise [62.997667081978825]
リスクの高い環境では、深層学習モデルは不確実性を判断し、誤分類の可能性がかなり高い場合に入力を拒否しなければなりません。
我々は,全スライド画像の分類において,最もよく使われている不確実性と頑健さの厳密な評価を行う。
我々は一般的に,手法のアンサンブルが,ドメインシフトやラベルノイズに対するロバスト性の向上とともに,より良い不確実性評価につながることを観察する。
論文 参考訳(メタデータ) (2023-01-03T11:34:36Z) - Towards Reliable Medical Image Segmentation by utilizing Evidential Calibrated Uncertainty [52.03490691733464]
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を利用して、医用画像分割の問題に対する確率と不確実性を明示的にモデル化する。
DeviSには不確実性を考慮したフィルタリングモジュールが組み込まれている。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - BaCaDI: Bayesian Causal Discovery with Unknown Interventions [118.93754590721173]
BaCaDIは因果構造と介入の両方の潜在確率的表現の連続的な空間で機能する。
BaCaDIは、合成因果発見タスクとシミュレートされた遺伝子発現データの実験において、因果構造と介入ターゲットを識別する関連手法より優れている。
論文 参考訳(メタデータ) (2022-06-03T16:25:48Z) - Fake It Till You Make It: Near-Distribution Novelty Detection by
Score-Based Generative Models [54.182955830194445]
既存のモデルは、いわゆる"近く分布"設定で失敗するか、劇的な低下に直面します。
本稿では, スコアに基づく生成モデルを用いて, 合成近分布異常データを生成することを提案する。
本手法は,9つのノベルティ検出ベンチマークにおいて,近分布ノベルティ検出を6%改善し,最先端のノベルティ検出を1%から5%パスする。
論文 参考訳(メタデータ) (2022-05-28T02:02:53Z) - Can uncertainty boost the reliability of AI-based diagnostic methods in
digital pathology? [3.8424737607413157]
デジタル病理学におけるDL予測の不確実性予測を付加すると,臨床応用の価値が増大する可能性が示唆された。
モデル統合手法(MCドロップアウトとディープアンサンブル)の有効性をモデル非依存アプローチと比較した。
以上の結果から,不確実性推定はある程度の信頼性を高め,分類しきい値選択に対する感度を低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-17T10:10:00Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Revisiting One-vs-All Classifiers for Predictive Uncertainty and
Out-of-Distribution Detection in Neural Networks [22.34227625637843]
識別型分類器における確率のパラメトリゼーションが不確実性推定に与える影響について検討する。
画像分類タスクのキャリブレーションを改善するために, 1-vs-all の定式化が可能であることを示す。
論文 参考訳(メタデータ) (2020-07-10T01:55:02Z) - Uncertainty-Gated Stochastic Sequential Model for EHR Mortality
Prediction [6.170898159041278]
本稿では,欠落変数の分布を推定し,隠れ状態の更新を行い,院内死亡の可能性を予測できる新しい変動再帰ネットワークを提案する。
我々のモデルは、これらの手順を1つのストリームで実行し、エンドツーエンドで全てのネットワークパラメータを共同で学習できることは注目に値する。
論文 参考訳(メタデータ) (2020-03-02T04:41:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。