論文の概要、ライセンス

# (参考訳) Covid-19肺病変セグメンテーションにおける未訓練nnU-Netモデル異常の検出 [全文訳有]

Detecting when pre-trained nnU-Net models fail silently for Covid-19 lung lesion segmentation ( http://arxiv.org/abs/2107.05975v2 )

ライセンス: CC BY 4.0
Camila Gonzalez, Karol Gotkowski, Andreas Bucher, Ricarda Fischbach, Isabel Kaltenborn, Anirban Mukhopadhyay(参考訳) コンピュータ断層撮影における肺病変の自動分離は、コビッドウイルスパンデミックにおける臨床医の負担を軽減する可能性がある。 しかし、予測されたディープラーニングモデルは、ood(out-of-distribut ion)データで静かに失敗するため、臨床ルーチンでは信頼できない。 本稿では,特徴空間におけるマハラノビス距離を利用した軽量OOD検出手法を提案する。 提案されたアプローチは,モデルアーキテクチャやトレーニング手順の変更を必要とせずに,最先端のセグメンテーションパイプラインにシームレスに統合することができる。 提案手法を,マルチインスティカルデータセットを用いて訓練したパッチベースのnnU-Netアーキテクチャを用いて検証し,モデルセグメントが正しくないサンプルを効果的に検出することを確認した。

Automatic segmentation of lung lesions in computer tomography has the potential to ease the burden of clinicians during the Covid-19 pandemic. Yet predictive deep learning models are not trusted in the clinical routine due to failing silently in out-of-distribution (OOD) data. We propose a lightweight OOD detection method that exploits the Mahalanobis distance in the feature space. The proposed approach can be seamlessly integrated into state-of-the-art segmentation pipelines without requiring changes in model architecture or training procedure, and can therefore be used to assess the suitability of pre-trained models to new data. We validate our method with a patch-based nnU-Net architecture trained with a multi-institutional dataset and find that it effectively detects samples that the model segments incorrectly.
公開日: Wed, 14 Jul 2021 11:45:47 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 l u J 1 2 0 2 l u J 0.85
4 1 ] V 4 1 ] V 0.85
I . s s e e [ 私は。 s s e [ 0.71
2 v 5 7 9 5 0 2 v 5 7 9 5 0 0.85
. 7 0 1 2 : v i X r a . 7 0 1 2 : v i X r a 0.85
Detecting when pre-trained nnU-Net models fail silently for Covid-19 lung lesion segmentation(cid:63) プレトレーニングnnu-netモデルが無音で失敗すると検出されるcovid-19肺病変分節(cid:63) 0.54
Camila Gonzalez1[0000−0002−4510−7309](), Karol Gotkowski1, Andreas Bucher2, camila gonzalez1[0000−0002−4510−7309](\), karol gotkowski1, andreas bucher2 0.63
Ricarda Fischbach2, Isabel Kaltenborn2, and Anirban Mukhopadhyay1 Ricarda Fischbach2, Isabel Kaltenborn2, Anirban Mukhopadhyay1 0.95
1 Darmstadt University of Technology, Karolinenpl. ダルムシュタット工科大学1校、カロリネンプル校。 0.46
5, 64289 Darmstadt, Germany 2 University Hospital Frankfurt, Theodor-Stern-Kai 7, 60590 Frankfurt am Main, 5, 64289 Darmstadt, Germany 2 University Hospital Frankfurt, Theodor-Stern-Kai 7, 60590 Frankfurt am Main。 0.96
Germany Abstract. Automatic segmentation of lung lesions in computer tomography has the potential to ease the burden of clinicians during the Covid19 pandemic. ドイツ 抽象。 コンピュータ断層撮影における肺病変の自動分離は、コビッド19のパンデミックにおける臨床医の負担を軽減する可能性がある。
訳抜け防止モード: ドイツ 抽象。 コンピュータ断層撮影における肺病変の自動区分けの可能性 Covid19パンデミックにおける臨床医の負担を軽減する。
0.73
Yet predictive deep learning models are not trusted in the clinical routine due to failing silently in out-of-distribution (OOD) data. しかし、予測されたディープラーニングモデルは、ood(out-of-distribut ion)データで静かに失敗するため、臨床ルーチンでは信頼できない。
訳抜け防止モード: しかし、予測的深層学習モデルは臨床ルーチンに信頼されていない out - of - distribution (OOD ) データでサイレントにフェールする。
0.72
We propose a lightweight OOD detection method that exploits the Mahalanobis distance in the feature space. 本稿では,特徴空間におけるマハラノビス距離を利用した軽量OOD検出手法を提案する。 0.71
The proposed approach can be seamlessly integrated into state-of-the-art segmentation pipelines without requiring changes in model architecture or training procedure, and can therefore be used to assess the suitability of pre-trained models to new data. 提案されたアプローチは,モデルアーキテクチャやトレーニング手順の変更を必要とせずに,最先端のセグメンテーションパイプラインにシームレスに統合することができる。
訳抜け防止モード: 提案されたアプローチは、モデルアーキテクチャやトレーニング手順の変更を必要とせずに、ステート-オブ-アートセグメンテーションパイプラインにシームレスに統合することができる。 それゆえ 新しいデータに対する事前訓練済みモデルの適合性を評価する。
0.67
We validate our method with a patch-based nnU-Net architecture trained with a multi-institutional dataset and find that it effectively detects samples that the model segments incorrectly. 提案手法を,マルチインスティカルデータセットを用いて訓練したパッチベースのnnU-Netアーキテクチャを用いて検証し,モデルセグメントが正しくないサンプルを効果的に検出することを確認した。 0.66
Keywords: out-of-distribution detection · uncertainty estimation · distribution shift. キーワード: 分布外検出 · 不確実性推定 · 分布シフト。 0.77
1 Introduction Automatic lung lesion segmentation in the clinical routine would significantly lessen the burden of radiologists, standardise quantification and staging of Covid19 as well as open the way for a more effective utilisation of hospital resources. 1 はじめに 臨床ルーチンにおける肺病変の自動分離は、放射線技師の負担を大幅に減らし、Covid19の定量化とステージングを標準化し、病院資源をより効果的に活用する方法を開く。 0.70
With this hope, several initiatives have gathered Computed Axial Tomography (CAT) scans and ground-truth annotations from expert thorax radiologists and released them to the public [6,20,23]. この希望により、いくつかのイニシアチブが、専門の胸郭放射線医からComputed Axial Tomography(CAT)スキャンと地平線アノテーションを集め、それを一般向けに公開しました(6,20,23)。
訳抜け防止モード: この希望により、いくつかのイニシアチブがComputed Axial Tomography(CAT)スキャンとグラウンドを収集した。 公開しました [6,20,23]
0.61
Experts have identified ground glass opacities (GGOs) and consolidations as characteristic of a pulmonary infection onset by the SARS-CoV-2 virus [24]. 専門家は, sars-cov-2ウイルス[24]による肺感染症の発症の特徴として, グラウンドグラス不透明度(ggos)を同定した。 0.58
Deep learning models have shown good performance in segmenting these lesions. 深層学習モデルはこれらの病変のセグメンテーションにおいて優れた性能を示している。 0.59
Particularly the fully-automatic nnUNet framework [11] secured top spots (9 out of 10, including the first) in the leaderboard for the Covid-19 Lung CT Lesion Segmentation Challenge [7]. 特に、完全自動nnunetフレームワーク[11]は、covid-19肺ct病変分画チャレンジ[7]のリーダーボードにトップスポット(10人中9人)を確保した。
訳抜け防止モード: 特に、完全な自動nnUNetフレームワーク [11 ] がトップスポット(10点中9点)を確保した。 Covid-19 Lung CT Lesion Segmentation Challenge[7 ]のリーダーボードに載っている。
0.61
(cid:63) Supported by the Bundesministerium f¨ur Gesundheit (BMG) with grant [ZMVI12520DAT03A]. (出典:63)連邦省(BMG)の支援[ZMVI12520DAT03A]。 0.61
The final authenticated version of this manuscript will be published in Lecture Notes in Computer Science, Medical Image Computing and Computer Assisted Intervention - MICCAI 2021 (doi will follow). この写本の最終的な認証版は、コンピュータサイエンス、医用画像コンピューティング、コンピュータ支援インターベンション - MICCAI 2021(後述)に掲載される。 0.62
英語(論文から抽出)日本語訳スコア
2 C. Gonzalez et al 2 C. Gonzalez et al 0.92
Such frameworks would ideally be utilised in the clinical practice. このような枠組みは臨床で理想的に活用されるだろう。 0.64
However, deep learning models are known to fail for data that considerably diverges from the training distribution. しかし、トレーニング分布からかなり離れたデータでは、ディープラーニングモデルは失敗することが知られている。 0.62
CAT scans are particularly prone to this domain shift problem [4]. 猫のスキャンは特にこの領域シフト問題に起因している[4]。 0.68
The data showcased in the challenge is multi-centre and diverse in terms of patient group and acquisition protocol. このチャレンジで紹介されたデータは、患者グループと獲得プロトコルの観点から多様で多様である。 0.77
A model trained with it would be presumed to produce good predictions for a wide spectrum of institutions. 訓練されたモデルは、広い範囲の機関に良い予測をもたらすと推定される。 0.70
Yet when we evaluate a nnU-Net model on three other datasets, we notice a considerable drop in segmentation quality (see Fig 1 (a)). しかし、他の3つのデータセットでnnU-Netモデルを評価すると、セグメンテーションの品質はかなり低下している(図1(a)参照)。 0.73
Lung lesions do not manifest in large connected components (see Fig 4), so it is not trivial for a novice radiologist to identify an incorrect segmentation. 肺病変は大きな連結成分に現れない(図4参照)ため、未熟な放射線技師が誤ったセグメンテーションを特定することは容易ではない。 0.74
Clinicians can still leverage models trained with large amounts of heterogeneous data, but only alongside a process that identifies when the model is unsuitable for a new data sample. 臨床医は、大量の異種データで訓練されたモデルを利用することができるが、新しいデータサンプルにモデルが適していないことを識別するプロセスと並行してのみ利用できる。
訳抜け防止モード: 臨床医はいまだに大量の異種データで訓練されたモデルを活用することができる。 しかしそのプロセスと共に モデルが新しいデータサンプルに適さない場合に識別する。
0.78
Widely-used segmentation frameworks are not designed with OOD detection in mind, and so a method is needed that reliably identifies OOD samples post-training while requiring minimal intervention. 広く使われているセグメンテーションフレームワークはOOD検出を念頭に設計されておらず、最小限の介入を必要としながら、トレーニング後のOODサンプルを確実に識別する手法が必要である。 0.64
Several strategies have shown good OOD detection performance in classification models. いくつかの戦略は、分類モデルにおいて優れたOOD検出性能を示している。 0.57
Hendrycks and Gimpel [8] propose using the maximum softmax output as an OOD detection baseline. hendrycks と gimpel [8] は最大ソフトマックス出力を ood 検出ベースラインとして使用する。 0.68
Guo et al [5] find that replacing the regular softmax function with a temperature-scaled variant produces truer estimates. Guo et al [5] は、通常のソフトマックス関数を温度スケールの変種に置き換えることで、真の推定値が得られることを示した。
訳抜け防止モード: Guo et al [ 5 ] 通常のソフトマックス関数を温度スケールの変種に置き換えると、真の推定値が得られる。
0.71
This can be complemented by adding perturbations to the network inputs [19]. これはネットワーク入力[19]に摂動を追加することで補うことができる。 0.81
Other methods [10,17] instead look at the KL divergence of softmaxed outputs from the uniform distribution. 他の方法[10,17]は、一様分布からのソフトマックス出力のKL分散を見る。 0.72
Some approaches use OOD data during training to explicitly train an outlier detector [1,9,17]. 一部のアプローチでは、トレーニング中にOODデータを使用して、外れ値検出器[1,9,17]を明示的にトレーニングする。 0.48
Bayesian-inspired techniques can also be used for outlier detection. ベイジアンにインスパイアされた技術は、外れ値検出にも使える。 0.49
Commonly-used are Monte Carlo Dropout [3] and Deep Ensembles [16]. 一般的に使用されるのは Monte Carlo Dropout [3] と Deep Ensembles [16] である。 0.70
These have shown promising results in the field of medical image segmentation [12,13,21]. これらは医療画像分割[12,13,21]の分野で有望な結果を示している。 0.68
Approaches that modify the architecture or training procedure have shown better performance in some cases, but their applicability to widely-used segmentation frameworks is limited [2,15,22]. アーキテクチャやトレーニング手順を変更するアプローチは、いくつかのケースでより良いパフォーマンスを示しているが、広く使われているセグメンテーションフレームワークへの適用性は限られている [2,15,22]。 0.58
We propose a method for OOD detection that is lightweight and seamlessly integrates into complex segmentation frameworks. 本稿では,複雑なセグメンテーションフレームワークに軽量かつシームレスに統合されたOOD検出手法を提案する。 0.72
Inspired by the work of Lee et al [18], our approach estimates a multivariate Gaussian distribution from in-distribution (ID) training samples and utilises the Mahalanobis distance as a measure of uncertainty during inference. Lee et al [18] の業績にインスパイアされた我々の手法は,多変量ガウス分布をin-distriion (ID) トレーニングサンプルから推定し,推論中の不確実性の尺度としてマハラノビス距離を利用する。 0.74
We compute the distance in a lowdimensional feature space, and down-sample it further to ensure a computationally inexpensive calculation. 低次元の特徴空間における距離を計算し、さらにダウンサンプリングして計算コストの低い計算を確実にする。 0.74
We validate our method on a patch-based 3D nnU-Net trained with multi-centre data from the Covid-19 Lung CT Lesion Segmentation Challenge. Covid-19 Lung CT Lesion Segmentation Challengeのマルチ中心データを用いて訓練したパッチベースの3D nnU-Net上で本手法の有効性を検証した。 0.61
Our evaluation shows that the proposed method can effectively identify OOD samples for which the model produces faulty segmentations, and provides good model calibration estimates. 提案手法は, モデルが故障セグメントを生成するOODサンプルを効果的に同定し, モデルキャリブレーション推定に有効であることを示す。 0.84
Our contributions are: – The introduction of a lightweight, flexible method for OOD detection that 私たちの貢献は -OOD検出のための軽量でフレキシブルな方法の導入 0.75
can be integrated into any segmentation framework. 任意のセグメンテーションフレームワークに統合することができる。 0.67
– An extension of the nnU-Net framework to provide clinically-relevant uncer- -臨床関連uncerを提供するnnU-Netフレームワークの拡張 0.82
tainty estimates. テンティ推定だ 0.51
英語(論文から抽出)日本語訳スコア
Detecting when pre-trained nnU-Net models fail silently for Covid-19 訓練済みのnnU-NetモデルがCovid-19でサイレントに故障した場合の検出 0.43
3 2 Materials and Methods We start by summarising the particularities of the nnU-Net framework in Sec. 3 2 材料と方法 まず最初に、secにおけるnnu-netフレームワークの特異性を要約する。 0.69
2.1. In Sec. 2.2, we outline our proposed method for OOD detection, which follows a three-step process: (1) estimation of a Gaussian distribution from training features (2) extraction of uncertainty masks for test images and (3) calculation of subject-level uncertainty scores. 2.1. Sec。 2) 提案手法は,(1) トレーニング特徴からガウス分布を推定すること,(2) テスト画像に対する不確実性マスクの抽出,(3) 被験者レベルの不確実性スコアの算出である。
訳抜け防止モード: 2.1. Sec。 2.2, 提案したOOD検出法について概説する: (1 ) トレーニング特徴からガウス分布を推定する (2 ) テスト画像における不確実性マスクの抽出 および (3 ) 対象 - レベル不確かさスコアの計算。
0.68
2.1 Patch-based nnU-Net 2.1 パッチベースのnnU-Net 0.43
The nnU-Net framework is a standardised baseline for medical image segmentation [11]. nnU-Netフレームワークは、医療画像セグメンテーションの標準ベースラインである[11]。 0.77
Without deviating from traditional U-Net architectures [26], it has won several grand challenges by automatically customising the architecture and training configuration to the data at hand [7]. 従来のu-netアーキテクチャ [26]から切り離すことなく、アーキテクチャを自動的にカスタマイズし、手元のデータに設定をトレーニングすることで、いくつかの大きな課題に直面している [7]。 0.59
The framework also performs preand post-processing steps, such as adapting voxel spacing and contrast normalisation, during both training and inference. このフレームワークは、トレーニングと推論の両方において、voxelスペーシングとコントラスト正規化の適応など、前処理と後処理のステップも実行します。
訳抜け防止モード: フレームワークはまた、voxel間隔の適応やコントラスト正規化など、事前および後処理のステップも実行する。 トレーニングと推論の間に
0.69
In this work we utilise the patch-based full-resolution variant, which is recommended for most applications [11], but our method can be integrated into any other architecture. この作業では、ほとんどのアプリケーション [11] で推奨されるパッチベースのフルレゾリューションバリアントを利用していますが、私たちのメソッドは他のアーキテクチャに統合できます。 0.75
For the patch-based architecture, training images are first divided into overlapping patches with a sliding window approach, resulting in N patches {xi}N i=1. パッチベースのアーキテクチャでは、トレーニングイメージはまず、スライディングウインドウアプローチで重なり合うパッチに分割され、結果としてNパッチ {xi}N i=1となる。 0.65
Predictions for each patch are multiplied by a filtering operation that weights centre-voxels more heavily, and then aggregated into an output mask with the dimensions of the original image. 各パッチの予測は、中心ボクセルを重み付けするフィルタリング操作によって乗算され、元の画像の寸法の出力マスクに集約される。 0.69
Fig. 1. (a) Dice coefficient of a model trained with Challenge data, evaluated with ID (Challenge) test data as well as on three other datasets. フィギュア。 1. (a)ID(Challenge)テストデータと他の3つのデータセットを用いて評価したチャレンジデータを用いたモデルのディス係数。 0.71
(b) The euclidean distance DE does not recognize that ˆz1 (purple marker) is closer than ˆz2 (blue marker) to the distribution of training samples (gray markers), with mean µ (green marker) and covariance Σ. b) ユークリッド距離 de は、平均 μ (グリーンマーカー) と共分散 σ を持つ訓練試料(グレーマーカー)の分布に対して、z1 (プルマーカー) がz2 (ブルーマーカー) よりも近いことを認識していない。 0.79
This difference intensifies in high-dimensional spaces, where it is common for regions close to the mean to be underrepresented. この差は高次元空間において増大し、そこでは、下記平均に近い領域に共通する。 0.61
2.2 Estimation of a subject-level uncertainty score 2.2 被験者レベルの不確実性スコアの推定 0.60
We are interested in capturing epistemic uncertainty, which arises from a lack of knowledge about the data-generating process. データ生成プロセスに関する知識の欠如から生じるてんかんの不確実性を捉えることに興味がある。 0.71
Quantifying it for image regions 0.00.60.40.20.60.70. 80.90.5𝑦𝑥 画像領域の定量化 0.00.60.40.20.60.70. 80.90.5𝑦𝑥 0.40
英語(論文から抽出)日本語訳スコア
4 C. Gonzalez et al 4 C. Gonzalez et al 0.92
instead of region boundaries is challenging, particularly for OOD data [14]. リージョン境界の代わりに、特にOODデータ [14] は、難しいです。 0.68
One computationally inexpensive way to assess epistemic uncertainty is to calculate the distance between training and testing activations in a low-dimensional feature space. 認識の不確実性を評価する計算的に安価な方法の一つは、低次元の特徴空間におけるトレーニングとテストのアクティベーションの間の距離を計算することである。
訳抜け防止モード: てんかん不確実性を評価するための計算コストの安い方法 低次元の特徴空間におけるトレーニングとテストのアクティベーションの間の距離を計算する。
0.66
As a model is unlikely to produce reasonable outputs for features far from any seen during training, this is a reliable signal for bad model performance [18]. モデルがトレーニング中に見つからない機能に対して適切な出力を生成する可能性は低いので、これは悪いモデルパフォーマンスのための信頼できる信号です [18]。 0.78
Model activations have covariance and the activations of typical input images do not necessarily resemble the mean [27], so the euclidean distance is not appropriate to identify unusual activation patterns; a problem that exacerbates in high-dimensional spaces. モデルアクティベーションは共分散を持ち、典型的な入力画像のアクティベーションは必ずしも平均 [27] に似ていないため、ユークリッド距離は異常なアクティベーションパターンを特定するのに適さない。 0.64
The Mahalanobis distance DM rescales samples into a space without covariance, supplying a more effective way to identify typical patterns in deep model features. マハラノビス距離DMはサンプルを共分散のない空間に再スケールし、ディープモデルの特徴の典型的なパターンを識別するより効果的な方法を提供する。 0.70
Fig 1 (b) illustrates a situation where the euclidean distance assumes that ˆz2 is closer to the training distribution than ˆz1, when ˆz2 is highly unusual and ˆz1 is a probable sample. fig 1 (b) は、z2 が非常に異常で、z1 が有望なサンプルであるとき、ユークリッド距離が、z1 よりも訓練分布に近いと仮定する状況を示す。 0.76
In the following we describe the steps we perform to extract a subject-level uncertainty value. 以下では、対象レベルの不確実性値を抽出するためのステップについて述べる。 0.60
Note that only one forward pass is necessary for each image, keeping the computational overhead to a minimum. 各画像には1つのフォワードパスのみが必要であり、計算オーバーヘッドを最小限に抑える。 0.72
Estimation of the training distribution: We start by estimating a multivariate Gaussian N (µ, Σ) over model features. トレーニング分布の推定: モデル特徴から多変量ガウス n (μ, σ) を推定することから始める。 0.75
For all training inputs {xi}N i=1, features F(xi) = zi are extracted from the encoder F of the pre-trained model. すべてのトレーニング入力 {xi}N i=1 に対して、予め訓練されたモデルのエンコーダFから特徴F(xi) = ziを抽出する。 0.78
For modern segmentation networks, the dimensionality of the extracted features zi is too large to calculate the covariance Σ in an acceptable time frame. 現代のセグメンテーションネットワークでは、抽出された特徴 zi の次元性は、許容時間枠で共分散 Σ を計算するには大きすぎる。 0.74
We thus project the latent space into a lower subspace by average pooling. したがって、平均プーリングにより潜在空間を下位部分空間に射影する。 0.63
Finally, we flatten this subspace and estimate the empirical mean µ and covariance Σ. 最後に、この部分空間を平坦化し、経験平均 μ と共分散 Σ を推定する。 0.65
N(cid:88) i=1 n(cid:88) i=1 0.68
N(cid:88) i=1 n(cid:88) i=1 0.68
µ = 1 N ˆzi, Σ = µ = 1N アージ、Σ = 0.78
1 N ( ˆzi − µ)( ˆzi − µ)T 1N (szi − μ)(szi − μ)T 0.79
(1) Extraction of uncertainty masks: During inference, we estimate an uncertainty mask for a subject following the process outlined in Fig 2. (1) 不確かさマスクの抽出: 推測中、図2に示したプロセスに従って被写体に対する不確実性マスクを推定する。 0.77
For each patch xi, features are extracted and projected into ˆzi. 各パッチxiでは、特徴を抽出し、イジに投影する。 0.57
Next, the Mahalanobis distance (Eq. 次はマハラノビス距離(eq)である。 0.64
2) to the Gaussian distribution estimated in the previous step is calculated. 2) 前段で推定されるガウス分布について算出する。 0.68
DM( ˆzi; µ, Σ) = ( ˆzi − µ)T Σ−1( ˆzi − µ) DM( シュジ; μ, Σ) = ( シュジ − μ)T Σ−1( シュジ − μ) 0.83
(2) Each distance is a point estimate for the corresponding model input. (2) 各距離は対応するモデル入力の点推定値である。 0.85
These are aggregated in a similar fashion to how network outputs are combined to form a prediction mask. これらは、ネットワーク出力を組み合わせることによって予測マスクを形成する方法と同様の方法で集約される。
訳抜け防止モード: これらは同様の方法で集約されます ネットワーク出力を結合して予測マスクを形成する。
0.82
Following the example of the patch-based nnU-Net, a zerofilled tensor is initialised with the dimensionality of the original image. パッチベースのnnU-Netの例に続いて、ゼロ充填テンソルが元の画像の次元で初期化される。 0.60
After assessing the distance for a patch, the value is replicated to the specified patch size and a filtering operation is applied to weight centre voxels more heavily. パッチの距離を評価すると、その値が所定のパッチサイズに複製され、重心ボクセルに対してフィルタリング操作がより重く適用される。 0.69
Finally, patch-level uncertainties are aggregated to an image-level mask. 最後に、パッチレベルの不確かさを画像レベルのマスクに集約する。 0.54
Subject-level uncertainty: The process described above produces an uncertainty mask with the dimensionality of the CAT scan. 対象レベルの不確実性: 上述のプロセスは、CATスキャンの次元性を持った不確実性マスクを生成する。 0.58
In order to effectively 有効にするために 0.81
英語(論文から抽出)日本語訳スコア
Detecting when pre-trained nnU-Net models fail silently for Covid-19 訓練済みのnnU-NetモデルがCovid-19でサイレントに故障した場合の検出 0.43
5 Fig. 2. 5 フィギュア。 2. 0.71
Extracting an uncertainty mask based on the Mahalanobis distance DM for an image during inference, in combination with a patch-based nnU-Net architecture. 推論中の画像に対するマハラノビス距離dmに基づく不確実性マスクの抽出とパッチベースのnnu-netアーキテクチャとの併用 0.69
identify highly uncertain samples, we aggregate these into a subject-level uncertainty U by averaging over all voxels. 極めて不確実なサンプルを特定し、すべてのボクセルを平均することで、これらを主題レベルの不確実性uに集約する。 0.44
We then normalise uncertainties between the minimum and doubled maximum values represented in an ID validation set – which we assume to be available during training – to ensure U ∈ [0, 1]. 次に、id検証セットで表現される最小値と倍値の間の不確実性(トレーニング中に利用可能と仮定する)を正規化し、u ∈ [0, 1] を確実にする。 0.61
3 Experimental Setup 3実験的セットアップ 0.90
We work with a total of four datasets for segmentation of Covid-19-related findings. 私たちは、Covid-19関連の発見のセグメンテーションのために、合計4つのデータセットで作業しています。 0.45
The Challenge dataset [6] contains chest CAT scans for patients with a confirmed SARS-CoV-2 infection from an array of institutions. Challengeデータセット [6] には,SARS-CoV-2感染が確認された患者の胸部CATスキャンが含まれている。 0.76
The data is heterogeneous in terms of age, gender and disease severity. データは年齢、性別、病気の重症度で異質である。 0.69
We use the 199 cases made available under the Covid Segmentation Grand Challenge, which we randomly divide into 160 cases to train the model, 4 validation and 35 test cases. 私たちはCovid Segmentation Grand Challengeで利用可能な199のケースを使用し、ランダムに160のケースに分割してモデルをトレーニングし、4のバリデーションと35のテストケースを使用します。
訳抜け防止モード: 私たちはCovid Segmentation Grand Challengeで利用可能な199のケースを使用します。 ランダムに160のケースに分けて モデルを訓練し 4の検証と35のテストケース
0.83
We evaluate our method with two publicly available datasets and an in-house one. 本手法を2つの公開データセットと1つの社内データセットを用いて評価した。 0.49
The public datasets encompass cases for patients with and without confirmed infections. 公的なデータセットは、感染が確認されていない患者のケースを包含する。 0.58
Mosmed [23] contains fifty cases and the Radiopedia dataset [20], a further twenty. Mosmed[23]には50のケースと、さらに20のRadiopediaデータセットが含まれている。 0.75
Finally, we utilise an in-house dataset consisting of fifty patients who were tested positive for SARS-CoV-2 with an RT PCR test. 最後に,SARS-CoV-2陽性患者50名を対象にRT PCR検査を行った。 0.62
All fifty scans were reviewed for diagnostic image quality. 全50検体が画像品質診断のために検査された。 0.62
The annotations for the inhouse data were performed slice-by-slice by two independent readers trained in the delineation of GGOs and pulmonary consolidations. 室内データに対するアノテーションは,GGOと肺結束のデライン化を訓練した2人の独立読者によってスライス・バイ・スライスされた。 0.53
Central vascular structures and central bronchial structures were excluded from all segmentations. 中心血管構造と中心気管支構造は全分節から除外された。 0.74
All delineations were reviewed by an expert radiologist reader. すべての分類は専門家の放射線科医によってレビューされた。 0.46
For the public datasets, the segmentation process is outlined in the corresponding publications. 公開データセットでは、セグメンテーションプロセスは対応する出版物で概説される。 0.77
With the Challenge data, we train a patch-based nnU-Net [11] on a Tesla T4 GPU. Challengeのデータでは、Tesla T4 GPU上で、パッチベースのnnU-Net[11]をトレーニングします。 0.65
Our configuration has a patch size of [28, 256, 256], and adjacent patches overlap by half that size. 私たちの構成は[28, 256, 256]のパッチサイズで、隣り合うパッチはそのサイズの半分のオーバーラップします。 0.80
To reduce the dimensionality of the feature space, we 特徴空間の次元性を減らすために、我々は 0.87
SEGMENTATION PIPELINEfilterOUR METHODinput imageuncertainty maskpoolingflatten segmentation pipelinefilterour methodinput image uncertainty maskpoolingflatten 0.77
英語(論文から抽出)日本語訳スコア
6 C. Gonzalez et al 6 C. Gonzalez et al 0.92
apply average pooling with a kernel size of (2, 2, 2) and stride (2, 2, 2) until the dimensionality falls below 1e4 elements. カーネルサイズが (2, 2, 2) で、次元が 1e4 要素以下になるまで (2, 2, 2) のストライドで平均プールを適用する。 0.84
With the Scikit Learn library (version 0.24) [25], calculating Σ requires 85 seconds for 1e5 samples. scikit learn library (バージョン 0.24) [25] では、1e5サンプルに σ を計算するのに85秒かかる。 0.72
Our code is available under github.com/MECLabTUD A/Lifelong-nnUNet (branch ood detection). 我々のコードはgithub.com/MECLabTUD A/Lifelong-nnUNetで利用可能です。 0.56
We compare our approach to state-of-the-art techniques to assess uncertainty information by performing inference on a trained model. 本手法を最先端技術と比較し,訓練モデル上で推論を行うことで不確実性情報を評価する。 0.61
Max. Softmax consists of taking the maximum softmax output [8]. マックス。 softmax は最大 softmax 出力 [8] を取ることで構成される。 0.78
Temp. Scaling performs temperature scaling on the outputs before applying the softmax operation [5], for which we test three different temperatures T = {10, 100, 1000}. Temp スケーリングは,3つの異なる温度T = {10, 100, 1000} をテストするソフトマックス演算[5]を適用する前に,出力に対して温度スケーリングを行う。 0.66
KL from Uniform computes the KL divergence from an uniform distribution [10]. UniformのKLは、均一分布[10]からKLの発散を計算する。 0.82
Note that all three methods output a confidence score (higher is more certain), which we invert to obtain an uncertainty estimate (lower is more certain). すべての3つの手法が信頼スコア(より高い値がより確実)を出力し、不確実性推定(より低い値がより確実)を得る。 0.73
Finally, MC Dropout consists of doing several forward passes whilst activating the Dropout layers that would usually be dormant during inference. 最後に、MC Dropoutはいくつかのフォワードパスを行い、推論中に通常休眠状態となるドロップアウト層を活性化する。 0.61
We perform 10 forward passes and report the standard deviation between outputs as an uncertainty score. 我々は10回のフォワードパスを行い、出力間の標準偏差を不確実性スコアとして報告する。 0.57
For all methods, we calculate a subject-level metric by averaging uncertainty masks, and normalise the uncertainty range between the minimum and doubled maximum uncertainty represented in ID validation data. 全ての方法において、不確実性マスクを平均化し、ID検証データに表される最小値と最大値との間の不確実性範囲を正規化する。 0.66
4 Results We start this section by analysing the performance of the proposed method in detecting samples that vary significantly from the training distribution. 4結果 本論文は, トレーニング分布から大きく異なるサンプルの検出において, 提案手法の性能を解析することから始める。 0.82
We then examine how well the model estimates segmentation performance. 次に,モデルがセグメンテーション性能を推定する方法について検討する。 0.58
Lastly, we qualitatively evaluate our method for ID and OOD examples. 最後に、IDとOODの例について定性的に評価する。 0.62
OOD detection: We first assess how effective our method is at identifying samples that are not ID (Challenge data). OOD検出: ID(Challenge data)以外のサンプルを識別する上で,我々の手法がいかに効果的かを評価する。 0.77
Due to the heterogeneity of the Challenge dataset, in practice data from an array of institutions would be considered ID. チャレンジデータセットの多様性のため、実際には複数の機関からのデータはidとみなされる。 0.60
However, for our evaluation datasets there is a drop in performance which should manifest in higher uncertainty estimates. しかし、評価データセットには、高い不確実性推定で現れるであろう性能の低下がある。 0.64
As is common practice in OOD detection [19], we find the uncertainty boundary that achieves a 95% true positive rate (TPR) on the ID validation set, where a true positive is a sample correctly identified as ID. ood検出[19]でよく見られるように、id検証セット上で95%の真正率(tpr)を達成する不確実性境界を見つける。
訳抜け防止モード: OOD検出の一般的な慣行として[19]。 ID検証セット上で95パーセントの真正率(TPR)を達成する不確実性境界を見つける。 真の正は、IDとして正しく識別されたサンプルである。
0.74
We report for the ID test data and all OOD data the false positive rate (FPR) and Detection Error = 0.5 (1 − T P R) + 0.5 F P R at 95% TPR. 我々は,IDテストデータと全OODデータに対して,偽陽性率 (FPR) と検出誤差 = 0.5 (1 − T P R) + 0.5 F P R を 95% TPR で報告した。 0.87
Tab. 1 summarizes our findings. Tab。 1は我々の発見を要約する。 0.66
All methods that utilise the network outputs after one forward pass have a high detection error and FPR, while the MC Dropout approach manages to identify more OOD samples. 1回の転送後にネットワーク出力を利用するすべてのメソッドは高い検出エラーとFPRを持ち、MC Dropoutアプローチはより多くのOODサンプルを識別する。 0.82
Our proposed method displays the lowest FPR and detection error. 提案手法は,最も低いFPRと検出誤差を示す。 0.83
Segmentation performance: While the detection of OOD samples is a first step in assessing the suitability of a model, an ideal uncertainty metric would inversely correlate with model performance, informing the user of the likely quality of a prediction without requiring manual annotations. セグメンテーション性能: OODサンプルの検出はモデルの適合性を評価する最初のステップであるが、理想的な不確実性計量はモデルのパフォーマンスと逆相関し、手動のアノテーションを必要とせずに予測の品質をユーザに知らせる。 0.89
For this we calculate the Expected Segmentation Calibration Error (ESCE). このため,予測セグメンテーション校正誤差(ESCE)を算出する。 0.68
Inspired by Guo et al [5], we divide the N test scans into M = 10 interval bins Bm according Guo et al [5] にインスパイアされた我々は N テストスキャンを M = 10 インターバルビン Bm に分割する。 0.83
英語(論文から抽出)日本語訳スコア
Detecting when pre-trained nnU-Net models fail silently for Covid-19 訓練済みのnnU-NetモデルがCovid-19でサイレントに故障した場合の検出 0.43
7 Table 1. Detection Error (lower is better) and FPR (lower is better) for the boundary of 95% TPR, ESCE (lower is better) and (mean±sd) Dice (higher is better) for subjects with an uncertainty below the 95% TPR boundary. 7 表1。 95%tprの境界に対する検出誤差(低い方が良い)、およびfpr(低い方が良い)、esce(低い方が良い)、および(平均±sd)dice(より良い)は95%tpr境界よりも低い不確実性を持つ被験者に対してである。 0.77
The results are reported for ID test data and all OOD samples. 結果は、IDテストデータおよびすべてのOODサンプルに対して報告される。 0.71
Method Det. Error FPR 0.334 0.583 Max. メソッドデット。 エラーFPR0.3340.583 Max。 0.60
Softmax [8] Temp. ソフトマックス [8] テンポ。 0.71
Scaling T = 10 [5] 0.758 0.508 0.550 Temp. T = 10[5] 0.758 0.508 0.550 Temp。 0.74
Scaling T = 100 [5] 0.361 Temp. スケーリング T = 100 [5] 0.361 Temp。 0.91
Scaling T = 1000 [5] 0.500 1.000 KL from Uniform [10] 0.415 0.717 MC Dropout [3] 0.183 0.177 Ours 0.082 0.050 T = 1000 [5] 0.500 1.000 KL from Uniform [10] 0.415 0.717 MC Dropout [3] 0.183 0.177 Ours 0.082 0.050 0.72
ESCE 0.319 0.407 0.408 0.408 0.288 0.215 0.125 ESCE 0.319 0.407 0.408 0.408 0.288 0.215 0.125 0.46
Dice 0.582 ±0.223 0.601 ±0.233 0.589 ±0.233 0.592 ±0.233 0.600 ±0.215 0.614 ±0.234 0.744 ±0.143 Dice 0.582 ±0.223 0.601 ±0.233 0.589 ±0.233 0.592 ±0.233 0.600 ±0.215 0.614 ±0.234 0.744 ±0.143 0.37
to their normalised uncertainty. Over all bins, the absolute difference is added between average Dice (Dice(Bm)) and inverse average uncertainty (1 − U(Bm)) for samples in the bin, weighted by the number of samples. 正常な不確実性に すべてのビンに対して、サンプル数によって重みづけられたビン内のサンプルの平均サイクリング(dice(bm))と逆平均不確かさ(1 − u(bm))の間で絶対的な差が加えられる。 0.64
ESCE = |Bm| N ESCE = |Bm|N 0.77
|Dice(Bm) − (1 − U(Bm))| |Dice(Bm) − (1 − U(Bm))| 0.91
(3) M(cid:88) (3) m(cid:88) 0.81
m=1 The results are reported in Tab. m=1。 結果はtabで報告されている。 0.55
1 (forth column). Our proposed approach shows the lowest ESCE at 0.125. 1(第1列)。 提案手法はESCEが0.125であることを示す。 0.71
The average Dice of admitted samples (fifth column) lies at 0.744, which is consistent with the ID expected performance of the model (see Fig 1 (a)). 認められたサンプル (第5カラム) の平均サイス (dice) は 0.744 であり、モデルの id 期待性能と一致している(図 1 (a) を参照)。 0.76
Fig. 3. Dice coefficient against normalised uncertainty for OOD (gray triangles) and test ID (black circles) samples. フィギュア。 3. OOD(グレートライアングル)とテストID(ブラックサークル)の正常化不確実性に対するDice係数。 0.66
The vertical gray line marks the boundary of 95% TPR for ID validation data. 垂直グレーラインは、ID検証データに対する95%のTPRの境界を示す。 0.84
To the right of this line, samples are classified as OOD. このラインの右側では、サンプルはOODに分類される。 0.80
The lower left (red) quadrant is clinically most relevant. 左下葉(赤色)は臨床的に最も関連性が高い。 0.71
Unlike MC Dropout, our method does not fail silently by assigning low uncertainties to low-Dice samples. mcドロップアウトとは異なり、本手法は低次元サンプルに低い不確かさを割り当てることで静かに失敗することはない。 0.50
MC DropoutOursIDOOD95% TPR MC DropoutOursIDD95% TPR 0.97
英語(論文から抽出)日本語訳スコア
8 C. Gonzalez et al 8 C. Gonzalez et al 0.92
Fig. 3 depicts the Dice coefficient plotted against the uncertainty for our proposed approach and MC Dropout, which has the second lowest calibration error. フィギュア。 3は,提案手法の不確実性に対してプロットしたサイス係数と,第2のキャリブレーション誤差を持つmcドロップアウトを示す。 0.59
Relevant for a safe use of the model in clinical practice is the lower left (red) quadrant, where silent failures are located. 臨床におけるモデルの安全な使用には、左下(赤い)四分法があり、そこでは無音障害がある。 0.59
Whereas MC Dropout fails to identify OOD samples with faulty predicted segmentations, our proposed method assigns these cases high uncertainty estimates. MC Dropout では,OOD サンプルを予測されたセグメンテーションの故障で識別できないが,提案手法では高い不確かさを推定する。 0.66
The only OOD samples that fall below the 95% TPR uncertainty boundary for our method have Dice scores over 0.6 (upper left quadrant with green background). 95%のTPR不確実性境界以下に低下するOODサンプルは、Diceスコアが0.6以上(緑背景の左4分の1以上)である。 0.71
However, our method shows room for improvement in the upper right (yellow) quadrant. しかし,本手法では右上(黄色)四分域の改良の余地がある。 0.71
Here, OOD samples for which the model produces good predictions are estimated to have a high uncertainty. ここでは, モデルが良好な予測を行うOODサンプルは, 高い不確実性を有すると推定される。 0.76
An ideal calibration would place all samples in the upper left (green) and lower right (blue) quadrants. 理想的なキャリブレーションは、すべてのサンプルを左上(緑)と右下(青)四分儀に配置する。 0.82
Qualitative evaluation: Fig 4 depicts two example images alongside corresponding ground truths and predictions. 定性的評価:図4は、対応する地上の真実と予測と共に、2つの例像を描いている。 0.53
The top row shows a example from the Challenge dataset for which the model produces an adequate segmentation. 上位行は、モデルが適切なセグメンテーションを生成するチャレンジデータセットの例を示している。 0.74
The bottom contains a scan from the Mosmed dataset. 下部にはMosmedデータセットからのスキャンが含まれている。 0.65
The model oversegments the lesion at the middle left lobe and incorrectly marks two additional regions at the left and right superior lobes. このモデルは左中葉の病変を過小評価し、左上葉と右上葉に2つの追加領域を誤ってマークする。 0.53
Only our proposed method signals a possible error in the lower row with a high uncertainty, while producing a low uncertainty estimate for the upper row. 提案手法は, 上位行に対して高い不確実性を示すとともに, 上位行に対して低い不確実性推定を導出する。 0.70
Fig. 4. Upper row: a good prediction. フィギュア。 4. 上位列: 良い予測です。 0.65
Lower row: a prediction for an OOD sample where two lesions are erroneously segmented in the superior lung lobes. 下行:2つの病変が上肺葉に誤って区分されたOODサンプルの予測。
訳抜け防止モード: 下部行 : OODサンプルの予測 2つの病変は、誤って上肺葉に分節されている。
0.72
Despite the considerable differences to the ground truth, these errors are not directly noticeable for the inexpert observer, as GGOs can manifest in superior lobes [24]. 基礎的事実にかなりの違いがあるにもかかわらず、これらの誤りは、GGOが優れたロブに現れるため、未熟な観察者にとって直接の注意を払わない [24]。 0.55
= .100= .136= .054= .616= .005= .196KL from Unif.Max. = .100= .136= .054= .616= .005= .196KL from Unif.Max 0.53
SoftmaxMC DropoutOursTemp. SoftmaxMC DropoutOursTemp 0.58
ScalingDice= .100= .105= .081= .027= .003= .875KL from Unif.Max. ScalingDice= .100= .105= .081= .027= .003= .875KL from Unif.Max 0.51
SoftmaxMC DropoutOursTemp. SoftmaxMC DropoutOursTemp 0.58
ScalingDiceVol. ScalingDiceVol。 0.75
renderingAxial slicesGROUND TRUTHGROUND TRUTHPREDICTIONIMAGE Uncertainty renderingaxial slicesground truthground truthprediction image uncertainty 0.59
英語(論文から抽出)日本語訳スコア
Detecting when pre-trained nnU-Net models fail silently for Covid-19 訓練済みのnnU-NetモデルがCovid-19でサイレントに故障した場合の検出 0.43
9 5 Conclusion Increasingly, institutions are taking part in initiatives to gather large amounts of annotated, heterogeneous data and release it to the public. 9 5 結論 機関は、大量の注釈付き異質なデータを収集し、それを一般に公開する取り組みにますます参加している。 0.74
This could potentially alleviate the work burden of medical practitioners by allowing the training of robust segmentation models. これは、堅牢なセグメンテーションモデルのトレーニングを可能にすることで、医療従事者の作業負担を軽減する可能性がある。 0.56
Open-source end-to-end frameworks contribute to this process. オープンソースのエンドツーエンドフレームワークがこのプロセスに貢献する。 0.53
But regardless of the variety of the training data, it is necessary to assess whether a model is well-suited to new samples. しかし、トレーニングデータの多様性に関わらず、モデルが新しいサンプルに適しているかどうかを評価する必要がある。 0.81
This is particularly true when it is not trivial to identify a faulty output, such as for the segmentation of SARS-CoV-2 lung lesions. これは特に、SARS-CoV-2肺病変の分節のような、異常な出力を特定することが自明でない場合に当てはまる。 0.68
There is currently a disconnect between methods for OOD detection, which often require special training or architectural considerations, and widely-used segmentation frameworks. OOD検出の方法には、特別なトレーニングやアーキテクチャ上の考慮が必要な場合が多く、また広く使われているセグメンテーションフレームワークが分離されている。 0.59
We find that calculating the Mahalanobis distance to features in a low-dimensional subspace is a lightweight and flexible way to signal when a model prediction should not be trusted. 低次元部分空間における特徴に対するマハラノビス距離の計算は、モデル予測が信頼できないときに信号を送るための軽量で柔軟な方法である。 0.75
Future work should explore how to better identify high-quality predictions. 今後は、高品質な予測をよりよく識別する方法を検討する必要がある。 0.42
For now, our work increases clinicians’ trust while translating trained neural networks from challenge participation to real clinics. 現在、我々の研究は、トレーニングされたニューラルネットワークをチャレンジ参加者から実際のクリニックに翻訳しながら、臨床医の信頼を高める。
訳抜け防止モード: 今のところ、我々の研究は臨床医の信頼を高めている 訓練されたニューラルネットワークを チャレンジ参加から実際のクリニックに翻訳する
0.63
英語(論文から抽出)日本語訳スコア
10 C. Gonzalez et al 10 C. Gonzalez et al 0.92
References 1. Bevandi´c, P., Kreˇso, I., Orˇsi´c, M., ˇSegvi´c, S.: Simultaneous semantic segmentation and outlier detection in presence of domain shift. 参考文献 1. Bevandi ́c, P., Kre'so, I., O.si ́c, M., S.: ドメインシフトの存在下での同時セマンティックセグメンテーションとアウトリー検出。
訳抜け防止モード: 参考文献 1. Bevandi ́c, P., Kre'so, I., Or'si ́c, M. S. : ドメインシフトの存在下での同時セマンティックセグメンテーションと外乱検出
0.76
In: German Conference on Pattern Recognition. ドイツにおけるパターン認識に関する会議。 0.78
pp. 33–47. pp. 33–47. 0.78
Springer (2019) Springer (複数形 Springers) 0.62
2. Blundell, C., Cornebise, J., Kavukcuoglu, K., Wierstra, D.: Weight uncertainty in neural network. 2. Blundell, C., Cornebise, J., Kavukcuoglu, K., Wierstra, D.: ニューラルネットワークにおける重みの不確実性 0.85
In: International Conference on Machine Learning. 英語: International Conference on Machine Learning。 0.75
pp. 1613–1622. pp. 1613–1622. 0.78
PMLR (2015) PMLR (2015) 0.85
3. Gal, Y., Ghahramani, Z.: Dropout as a bayesian approximation: Representing model uncertainty in deep learning. 3. Gal, Y., Ghahramani, Z.: ベイズ近似としてのドロップアウト:ディープラーニングにおけるモデル不確実性を表現する 0.77
In: International Conference on Machine Learning. 英語: International Conference on Machine Learning。 0.75
pp. 1050–1059. pp. 1050–1059. 0.78
PMLR (2016) PMLR (2016年) 0.74
4. Glocker, B., Robinson, R., Castro, D.C., Dou, Q., Konukoglu, E.: Machine learning with multi-site imaging data: An empirical study on the impact of scanner effects. 4. glocker, b., robinson, r., castro, d.c., dou, q., konukoglu, e.: machine learning with multi-site imaging data: an experience study on the impact of scanner effects (英語) 0.82
arXiv preprint arXiv:1910.04597 (2019) arXiv preprint arXiv:1910.04597(201 9) 0.75
5. Guo, C., Pleiss, G., Sun, Y., Weinberger, K.Q. 5. Guo, C., Pleiss, G., Sun, Y., Weinberger, K.Q 0.87
: On calibration of modern neural networks. 現代のニューラルネットワークの校正について 0.60
In: International Conference on Machine Learning. 英語: International Conference on Machine Learning。 0.75
pp. 1321–1330. pp. 1321–1330. 0.78
PMLR (2017) PMLR (2017) 0.85
6. Harmon, S.A., Sanford, T.H., Xu, S., Turkbey, E.B., Roth, H., Xu, Z., Yang, D., Myronenko, A., Anderson, V., Amalou, A., et al : Artificial intelligence for the detection of covid-19 pneumonia on chest ct using multinational datasets. 6. Harmon, S.A., Sanford, T.H., Xu, S., Turkbey, E.B., Roth, H., Xu, Z., Yang, D., Myronenko, A., Anderson, V., Amalou, A. など : 多国籍のデータセットを用いて胸部におけるコビッド19肺炎の検出のための人工知能。 0.87
Nature 1–7 (2020). 第1-7期(2020年)。 0.42
https://doi.org/http s://doi.org/10.1038/ s41467-020-17971-2 https://doi.org/http s://doi.org/10.1038/ s41467-020-17971-2 0.24
communications 11(1), 7. 通信 11(1) 7. 0.75
Henderson, E.: Leading pediatric hospital reveals top ai models in covidhttps://www.new s-medical.net/news/2 0210112/ Henderson, E.: 先進的な小児科病院がcovidhttps://www.new s-medical.net/news/2 0210112/でトップのaiモデルを公開 0.47
19 Leading-pediatric-ho spital-reveals-top-A I-models-in-COVID-19 -Grand-Challenge. 19 小児病院におけるトップAIモデル-in-COVID-19-Grand-C hallenge 0.20
aspx, accessed: 2021-02-28 aspx、アクセス:2021-02-28 0.56
grand challenge. 8. グランド 挑戦だ 8. 0.72
Hendrycks, D., Gimpel, K.: A baseline for detecting misclassified and out-ofdistribution examples in neural networks. hendrycks, d., gimpel, k.: ニューラルネットワークにおける誤った分類と分散の例を検出するベースライン。 0.77
In: International Conference on Learning Representations (2017) In: International Conference on Learning Representations (2017) 0.85
9. Hendrycks, D., Mazeika, M., Dietterich, T.: Deep anomaly detection with outlier 9. Hendrycks, D., Mazeika, M., Dietterich, T.: Deep Anomaly Detection with Outlier 0.85
exposure. In: International Conference on Learning Representations (2018) 露出 in: international conference on learning representations (2018) 参加報告 0.63
10. Hendrycks, D., Mazeika, M., Kadavath, S., Song, D.: Using self-supervised learning can improve model robustness and uncertainty. 10. Hendrycks, D., Mazeika, M., Kadavath, S., Song, D.: 自己教師付き学習を使用することで、モデルの堅牢性と不確実性が改善される。
訳抜け防止モード: 10. Hendrycks, D., Mazeika, M., Kadavath, S. 歌, D. 自己指導型学習の利用 モデルの堅牢性と不確実性を改善します
0.82
Advances in Neural Information Processing Systems 32, 15663–15674 (2019) 神経情報処理システム32,15663–15674(2019)の進歩 0.84
11. Isensee, F., Jaeger, P.F., Kohl, S.A., Petersen, J., Maier-Hein, K.H. 11. Isensee, F., Jaeger, P.F., Kohl, S.A., Petersen, J., Maier-Hein, K.H. 0.85
: nnu-net: a self-configuring method for deep learning-based biomedical image segmentation. : nnu-net: 深層学習に基づくバイオメディカルイメージセグメンテーションのための自己構成法。 0.77
Nature Methods 18(2), 203–211 (2021) 自然法 18(2), 203-211(2021年) 0.84
12. Jungo, A., Balsiger, F., Reyes, M.: Analyzing the quality and challenges of uncertainty estimations for brain tumor segmentation. 12. Jungo, A., Balsiger, F., Reyes, M.:脳腫瘍セグメンテーションにおける不確実性評価の品質と課題の分析 0.86
Frontiers in Neuroscience 14, 282 (2020) 神経科学のフロンティア14,282(2020) 0.73
13. Jungo, A., Reyes, M.: Assessing reliability and challenges of uncertainty estimations for medical image segmentation. 13. Jungo, A., Reyes, M.:医療画像セグメンテーションにおける信頼性と不確実性評価の課題の評価 0.81
In: International Conference on Medical Image Computing and Computer-Assisted Intervention. In: International Conference on Medical Image Computing and Computer-Assisted Intervention 0.86
pp. 48–56. pp. 48–56. 0.78
Springer (2019) Springer (複数形 Springers) 0.62
14. Kendall, A., Gal, Y.: What uncertainties do we need in bayesian deep learning for computer vision? 14. kendall, a., gal, y.: コンピュータビジョンのためのベイズディープラーニングには、どのような不確実性が必要ですか? 0.74
Advances in Neural Information Processing Systems 30, 5574– 5584 (2017) 神経情報処理システムの進歩 30, 5574–5584 (2017) 0.75
15. Kohl, S.A., Romera-Paredes, B., Meyer, C., Fauw, J.D., Ledsam, J.R., MaierHein, K.H., Eslami, S.A., Rezende, D.J., Ronneberger, O.: A probabilistic u-net for segmentation of ambiguous images. 15. Kohl, S.A., Romera-Paredes, B., Meyer, C., Fauw, J.D., Ledsam, J.R., MaierHein, K.H., Eslami, S.A., Rezende, D.J., Ronneberger, O.: A probabilistic u-net for segmentation of ambiguous images。 0.85
In: Proceedings of the 32nd International Conference on Neural Information Processing Systems. 第32回ニューラル情報処理システム国際会議に参加して 0.59
pp. 6965–6975 (2018) pp. 6965–6975 (2018) 0.85
英語(論文から抽出)日本語訳スコア
Detecting when pre-trained nnU-Net models fail silently for Covid-19 訓練済みのnnU-NetモデルがCovid-19でサイレントに故障した場合の検出 0.43
11 16. Lakshminarayanan, B., Pritzel, A., Blundell, C.: Simple and scalable predictive uncertainty estimation using deep ensembles. 11 16. Lakshminarayanan, B., Pritzel, A., Blundell, C.: 深層アンサンブルを用いた単純でスケーラブルな予測不確実性推定 0.85
Advances in Neural Information Processing Systems 30, 6402–6413 (2017) 神経情報処理システム30,6402-6413(2017)の進歩 0.68
17. Lee, K., Lee, H., Lee, K., Shin, J.: Training confidence-calibrated classifiers for detecting out-of-distribution samples. 17. Lee, K., Lee, H., Lee, K., Shin, J.: 分布外サンプルを検出するための信頼性校正分類器の訓練。 0.81
In: International Conference on Learning Representations (2018) in: international conference on learning representations (2018) 参加報告 0.87
18. Lee, K., Lee, K., Lee, H., Shin, J.: A simple unified framework for detecting out-ofdistribution samples and adversarial attacks. 18. Lee, K., Lee, K., Lee, H., Shin, J.: 配布外サンプルと敵攻撃を検出するための単純な統合フレームワーク。 0.85
In: Advances in Neural Information Processing Systems. in: 神経情報処理システムの進歩。 0.71
pp. 7167–7177 (2018) pp. 7167–7177 (2018) 0.85
19. Liang, S., Li, Y., Srikant, R.: Enhancing the reliability of out-of-distribution image detection in neural networks. 19. Liang, S., Li, Y., Srikant, R.: ニューラルネットワークにおける分布外画像検出の信頼性を高める。 0.87
In: International Conference on Learning Representations (2018) in: international conference on learning representations (2018) 参加報告 0.87
20. Ma, J., Ge, C., Wang, Y., An, X., Gao, J., Yu, Z., Zhang, M., Liu, X., Deng, X., Cao, S., Wei, H., Mei, S., Yang, X., Nie, Z., Li, C., Tian, L., Zhu, Y., Zhu, Q., Dong, G., He, J.: Covid-19 ct lung and infection segmentation dataset (2020). 20. Ma, J., Ge, C., Wang, Y., An, X., Gao, J., Yu, Z., Zhang, M., Liu, X., Deng, X., Cao, S., Wei, H., Mei, S., Yang, X., Nie, Z., Li, C., Tian, L., Zhu, Y., Zhu, Q., Dong, G., He, J.: Covid-19 ct lung and infection segmentation dataset (2020)。 0.86
https://doi.org/10.5 281/zenodo.3757476, https://doi.org/10. https://doi.org/10.5 281/zenodo.3757476, https://doi.org/10。 0.39
5281/zenodo.3757476 5281/3757476 0.41
21. Mehrtash, A., Wells, W.M., Tempany, C.M., Abolmaesumi, P., Kapur, T.: Confidence calibration and predictive uncertainty estimation for deep medical image segmentation. 21. mehrtash, a., wells, w.m., tempany, c.m., abolmaesumi, p., kapur, t.: confidence calibration and prediction uncertainty estimation for deep medical image segmentation (英語) 0.82
IEEE transactions on medical imaging 39(12), 3868–3878 (2020) ieee transactions on medical imaging (39(12), 3868-3878 (2020) 0.77
22. Monteiro, M., Le Folgoc, L., Coelho de Castro, D., Pawlowski, N., Marques, B., Kamnitsas, K., van der Wilk, M., Glocker, B.: Stochastic segmentation networks: Modelling spatially correlated aleatoric uncertainty. 22. monteiro, m., le folgoc, l., coelho de castro, d., pawlowski, n., marques, b., kamnitsas, k., van der wilk, m., glocker, b.: stochastic segmentation networks: modelling spatially correlationd aleatoric uncertainty
訳抜け防止モード: 22. Monteiro, M., Le Folgoc, L., Coelho de Castro D., Pawlowski, N., Marques, B., Kamnitsas K., van der Wilk, M., Glocker, B. : 確率的セグメンテーションネットワーク : 空間的に相関したアレタリック不確かさのモデル化
0.85
In: Larochelle, H., Ranzato, M., Hadsell, R., Balcan, M.F., Lin, H. Larochelle, H., Ranzato, M., Hadsell, R., Balcan, M.F., Lin, H。 0.78
(eds.) Advances in Neural Information Processing Systems. (eds)。 ニューラル情報処理システムの進歩 0.68
vol. 33, pp. Vol. 33, pp。 0.75
12756–12767. 12756–12767. 0.71
Curran Associates, Inc. (2020) Curran Associates, Inc. (2020) 0.96
23. Morozov, S., Andreychenko, A., Pavlov, N., Vladzymyrskyy, A., Ledikhova, N., Gombolevskiy, V., Blokhin, I.A., Gelezhe, P., Gonchar, A., Chernina, V.Y. 23. Morozov, S., Andreychenko, A., Pavlov, N., Vladzymyrskyy, A., Ledikhova, N., Gombolevskiy, V., Blokhin, I.A., Gelezhe, P., Gonchar, A., Chernina, V.Y 0.88
: Mosmeddata: Chest ct scans with covid-19 related findings dataset. Mosmeddata:Chest ct scans with covid-19 related findings dataset。 0.82
arXiv preprint arXiv:2005.06465 (2020) arXiv preprint arXiv:2005.06465 (2020) 0.75
24. Parekh, M., Donuru, A., Balasubramanya, R., Kapur, S.: Review of the chest ct differential diagnosis of ground-glass opacities in the covid era. 24. parekh, m., donuru, a., balasubramanya, r., kapur, s.: the review of the chest ct differential diagnosis of ground-glass opacities in the covid era 0.83
Radiology 297(3), E289–E302 (2020) 放射線医学 297(3), e289-e302 (2020) 0.72
25. Pedregosa, F., Varoquaux, G., Gramfort, A., Michel, V., Thirion, B., Grisel, O., Blondel, M., Prettenhofer, P., Weiss, R., Dubourg, V., Vanderplas, J., Passos, A., Cournapeau, D., Brucher, M., Perrot, M., Duchesnay, E., Louppe, G.: Scikit-learn: Machine learning in python. 25. Pedregosa, F., Varoquaux, G., Gramfort, A., Michel, V., Thirion, B., Grisel, O., Blondel, M., Prettenhofer, P., Weiss, R., Dubourg, V., Vanderplas, J., Passos, A., Cournapeau, D., Brucher, M., Perrot, M., Duchesnay, E., Louppe, G.: Scikit-learn: pythonにおける機械学習。 0.87
Journal of Machine Learning Research 12 (01 2012) 26. Journal of Machine Learning Research 12 (01 2012) 26頁。 0.85
Ronneberger, O., Fischer, P., Brox, T.: U-net: Convolutional networks for biomedical image segmentation. Ronneberger, O., Fischer, P., Brox, T.: U-net: バイオメディカルイメージセグメンテーションのための畳み込みネットワーク。 0.84
In: International Conference on Medical Image Computing and Computer-Assisted Intervention. In: International Conference on Medical Image Computing and Computer-Assisted Intervention 0.86
pp. 234–241. pp. 234–241. 0.78
Springer (2015) Springer (複数形 Springers) 0.60
27. Wei, D., Zhou, B., Torrabla, A., Freeman, W.: Understanding intra-class knowledge 27. Wei, D., Zhou, B., Torrabla, A., Freeman, W. : クラス内知識の理解 0.89
inside cnn. arXiv preprint arXiv:1507.02379 (2015) cnn内。 arXiv preprint arXiv:1507.02379 (2015) 0.73
                       ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。