論文の概要、ライセンス

# (参考訳) 医療画像における教師なし異常検出のための暗黙的フィールド学習 [全文訳有]

Implicit field learning for unsupervised anomaly detection in medical images ( http://arxiv.org/abs/2106.05214v1 )

ライセンス: CC BY 4.0
Sergio Naval Marimont and Giacomo Tarroni(参考訳) 暗黙的フィールド画像表現に基づく医用画像の非教師なし分布検出法を提案する。 本手法では,組織型プロキシ上での空間座標と確率のマッピングという形で,自己デコーダフィードフォワードニューラルネットワークを用いて健全な画像の分布を学習する。 推論時には、学習した分布を用いて、所定のテスト画像、復元、すなわち、検索を行う。 入力画像と最大限に一致しているが、健康な分布に属する画像。 復元画像に対するモデルにより予測されたボクセルワイズ確率を用いて異常を局所化する。 脳MR画像上におけるグリオーマの非教師的局在化を課題とし,VAEによる他の異常検出法と比較した。 結果から,提案手法は高い性能(VAEベースの代替手段として平均DICE 0.640 vs 0.518)を示し,計算時間もかなり少ないことがわかった。

We propose a novel unsupervised out-of-distribution detection method for medical images based on implicit fields image representations. In our approach, an auto-decoder feed-forward neural network learns the distribution of healthy images in the form of a mapping between spatial coordinates and probabilities over a proxy for tissue types. At inference time, the learnt distribution is used to retrieve, from a given test image, a restoration, i.e. an image maximally consistent with the input one but belonging to the healthy distribution. Anomalies are localized using the voxel-wise probability predicted by our model for the restored image. We tested our approach in the task of unsupervised localization of gliomas on brain MR images and compared it to several other VAE-based anomaly detection methods. Results show that the proposed technique substantially outperforms them (average DICE 0.640 vs 0.518 for the best performing VAE-based alternative) while also requiring considerably less computing time.
公開日: Wed, 9 Jun 2021 16:57:22 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
9 ] V I . 9 ] V 私は。 0.82
s s e e [ 1 v 4 1 2 5 0 s s e [ 1 v 4 1 2 5 0 0.77
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Implicit field learning for unsupervised anomaly 教師なし異常に対する暗黙的フィールド学習 0.60
detection in medical images 医療画像における検出 0.78
Sergio Naval Marimont1 and Giacomo Tarroni1,2 Sergio Naval Marimont1 and Giacomo Tarroni1,2 0.75
1 CitAI Research Centre, City, University of London, London, UK 1 CitAI Research Centre, City, University of London, London, UK (英語) 0.95
2 BioMedIA, Imperial College, London, UK 英国、インペリアル・カレッジ・オブ・バイオメディア 0.56
{sergio.naval-marimon t,giacomo.tarroni}@city.ac.uk sergio.naval-marimon t,giacomo.tarroni}@city.ac.uk 0.50
Abstract. We propose a novel unsupervised out-of-distribution detection method for medical images based on implicit fields image representations. 抽象。 暗黙的フィールド画像表現に基づく医用画像の非教師なし分布検出法を提案する。 0.69
In our approach, an auto-decoder feed-forward neural network learns the distribution of healthy images in the form of a mapping between spatial coordinates and probabilities over a proxy for tissue types. 本手法では,組織型プロキシ上での空間座標と確率のマッピングという形で,自己デコーダフィードフォワードニューラルネットワークを用いて健全な画像の分布を学習する。 0.83
At inference time, the learnt distribution is used to retrieve, from a given test image, a restoration, i.e. 推論時には、学習した分布を用いて、所定のテスト画像、復元、すなわち、検索を行う。 0.69
an image maximally consistent with the input one but belonging to the healthy distribution. 入力画像と最大限に一致しているが、健康な分布に属する画像。 0.70
Anomalies are localized using the voxel-wise probability predicted by our model for the restored image. 復元画像に対するモデルにより予測されたボクセルワイズ確率を用いて異常を局所化する。 0.57
We tested our approach in the task of unsupervised localization of gliomas on brain MR images and compared it to several other VAE-based anomaly detection methods. 脳MR画像上におけるグリオーマの非教師的局在化を課題とし,VAEによる他の異常検出法と比較した。 0.72
Results show that the proposed technique substantially outperforms them (average DICE 0.640 vs 0.518 for the best performing VAE-based alternative) while also requiring considerably less computing time. 結果から,提案手法は高い性能(VAEベースの代替手段として平均DICE 0.640 vs 0.518)を示し,計算時間もかなり少ないことがわかった。 0.71
Keywords: anomaly detection · unsupervised learning · implicit fields · occupancy networks. キーワード: 異常検出 · 教師なし学習 · 暗黙のフィールド · 占有ネットワーク。 0.84
1 Introduction Multiple deep learning methods have been proposed to automatically localize anomalies in medical images, with fully-supervised approaches being able to achieve high segmentation accuracies [4]. 1 はじめに 医学画像における異常の自動ローカライズのための複数のディープラーニング手法が提案されており、完全な教師付きアプローチにより高いセグメンテーション精度を実現している [4]。 0.68
However, these methods 1) rely on the availability of large and diverse annotated datasets for training, and 2) they are specific to the anomalies annotated in the dataset and are therefore unable to generalize to previously unseen pathologies. しかし,これらの手法は,(1)大規模かつ多様なアノテートデータセットをトレーニングに利用することに依存し,(2)データセットにアノテートされた異常に特化しており,従ってこれまで見つからなかった病理に一般化できない。 0.73
On the other hand, the unsupervised learning paradigm is not affected by these limitations. 一方で、教師なし学習パラダイムは、これらの制限に影響されない。 0.60
Unsupervised approaches usually aim at learning the distribution of healthy/normal unannotated images and at classifying as anomalies the images that differ from the learnt distribution. 教師なしのアプローチは、通常、正常/正常な注釈付き画像の分布を学習し、学習された分布とは異なる画像の異常を分類することを目的としている。
訳抜け防止モード: 教師なしのアプローチは通常 正常な/正常な無注釈画像の分布を学習する 異常として分類すると 学習した分布と異なる画像です
0.76
Two categories of generative models, namely Variational Auto-Encoders (VAEs) and Generative Adversarial Networks (GANs), have been implemented in many techniques for unsupervised anomaly detection. 変異自動エンコーダ(VAE)とGAN(Generative Adversarial Networks)の2つの生成モデルが、教師なし異常検出のための多くの手法で実装されている。 0.78
However, comparative studies [1] show that their performance is still far from that of equivalent supervised methods. しかし、比較研究 [1] は、その性能が同等の教師付き手法に及ばないことを示している。
訳抜け防止モード: しかし、比較研究 [1 ] は、 彼らのパフォーマンスは 同等の監視方法とは かけ離れています
0.70
英語(論文から抽出)日本語訳スコア
2 S. Naval Marimont and G. Tarroni 2 S. Naval Marimont と G. Tarroni 0.88
Related Works: Generally, anomaly detection techniques make use of generative models to learn the distribution of healthy/normal images and leverage the learnt distribution to compute voxel-by-voxel anomaly scores (AS), which identify image areas that differ from the normal anatomy. 関連研究:一般的に、異常検出技術は、正常/正常な画像の分布を学習するために生成モデルを使用し、通常の解剖と異なる画像領域を識別するvoxel-by-voxel anomaly score(as)を計算するために学習分布を利用する。 0.78
The vanilla VAE-based approach assumes that a model trained on normal data will not be able to reconstruct anomalies, and consequently that the voxel-wise reconstruction loss can be used as AS. バニラvaeに基づくアプローチでは、通常のデータに基づいてトレーニングされたモデルは異常を再構築できないため、voxel-wiseの再構成損失をそのまま使用できると仮定している。 0.67
However, auto-encoders with enough capacity can also reconstruct abnormal samples, making VAE reconstruction loss a poor AS [1,14]. しかし、十分なキャパシティを持つ自動エンコーダは、異常サンプルの再構成も可能であり、VAE再構成損失はAS[1,14]が劣る。 0.56
Several methods have tried to over-come this limitation. この制限を克服するいくつかの方法が試みられている。 0.55
For instance, [14] proposed to leverage the KL divergence gradient w.r.t voxels as AS. 例えば [14] は KL の発散勾配 w.r.t ボクセルを AS として利用することを提案した。 0.62
[15] added context-encoding tasks to incentivise the VAE to properly generate restored (i.e. [15] 適切な復元(すなわち)を生成するためにVAEにインセンティブを与えるためのコンテキストエンコーディングタスクを追加した。 0.59
anomaly-free) images. anomaly-free) イメージ。 0.73
In [2], the authors proposed to restore images by minimising a loss function composed by the VAE ELBO and a data consistency term. [2]では、VAE ELBOとデータ一貫性項からなる損失関数を最小化することにより、画像の復元を提案する。 0.75
[8] proposed to generate restorations with a vector-quantized VAE by resampling low-probability latent variables. [8]低確率潜伏変数を再サンプリングし,ベクトル量子化VAEによる復元を提案する。 0.70
GAN-based approaches [11,10], rely on a similar ideas for restoration. GANベースのアプローチ[11,10]は、復元のための同様のアイデアに依存しています。 0.50
However, GANs notably suffer from mode collapse, i.e. しかし、GANは特にモード崩壊に悩まされる。 0.63
the tendency to learn to generate samples only from a subset of the normal image distribution. 通常の画像分布のサブセットからのみサンプルを生成する傾向。 0.61
In addition, also GANs can generate anomalous samples [1]. さらに、GANは異常サンプル [1] を生成することもできる。 0.80
Due to these issues, most of the approaches based on generative models have yielded limited anomaly detection performance, struggling to reach DICE scores of 0.5 in brain MRI datasets [1]. これらの問題により、生成モデルに基づくアプローチのほとんどは、限られた異常検出性能をもたらし、脳MRIデータセットのDICEスコア0.5に達するのに苦労している。 0.77
Techniques based on supervised learning using datasets with syntheticallygenerat ed anomalies [12] have been very recently proposed for anomaly detection. 合成生成異常のあるデータセット [12] を用いた教師あり学習に基づく手法が近年, 異常検出のために提案されている。 0.65
They have achieved high accuracy in the MICCAI 2020 Medical Out-ofDistribution challenge (MOOD) [16], which partially included synthetic anomalies in its test set. 彼らは、試験セットに部分的に合成異常を含むMICCAI 2020 Medical Out-of Distribution Challenge (MOOD) [16]で高い精度を達成した。 0.79
While promising, these approaches move the focus to the task of generating realistic anomalies, and their performance on datasets with real abnormalities remains largely unexplored. 有望だが、これらのアプローチは現実的な異常を生成するタスクに焦点を移し、実際の異常のあるデータセットに対するパフォーマンスはほとんど未定である。 0.61
Contributions: Recently, an approach referred to as implicit field learning (or occupancy net-works) has been introduced to reconstruct 3D shapes through learning their implicit surface representation [6,3]. コントリビューション:近年,暗黙の場学習(あるいは占領ネットワーク)と呼ばれるアプローチを導入し,その暗黙の面表現を学習して3次元の形状を再構築している[6,3]。 0.68
Instead of using convolutional networks to learn a distribution over a dense set of voxels, in this approach a linear neural net-work learns to map continuous spatial coordinates to either object/background labels (binary classification) [6,3] or to the signed distance function with respect to the object surface [9]. 畳み込みネットワークを用いて、密度の高いボクセルの集合上の分布を学習する代わりに、線形ニューラルネットワークは、連続的な空間座標をオブジェクト/背景ラベル(バイナリ分類) [6,3] または、オブジェクト表面 [9] に関する符号付き距離関数にマッピングすることを学ぶ。 0.84
Importantly, the authors of [9] also proposed to substitute the auto-encoder architecture with an auto-decoder architecture, removing the need for an encoder network to obtain the latent representation. 重要な点として, [9] の著者らは,オートエンコーダアーキテクチャをオートデコーダアーキテクチャに置き換えることを提案した。
訳抜け防止モード: 重要な点として、 [9 ] の作者は Auto-encoder アーキテクチャを auto-decoder アーキテクチャに置き換えることを提案した。 潜在表現を得るためにエンコーダネットワークの必要性を取り除く。
0.73
In this paper, we propose a novel approach to unsupervised anomaly detection that leverages the implicit field learning paradigm. 本稿では,暗黙的フィールド学習パラダイムを活用した教師なし異常検出手法を提案する。 0.64
Our main contributions are the following: 私たちの主な貢献は以下のとおりです。 0.67
– We propose a modification of the implicit field learning technique that enables learning relevant anatomical features for unsupervised anomaly detection; – 教師なし異常検出のための解剖学的特徴の学習を可能にする暗黙的フィールド学習手法の修正を提案する。 0.71
英語(論文から抽出)日本語訳スコア
Implicit field learning for unsupervised anomaly detection in medical images 医療画像における教師なし異常検出のための暗黙的フィールド学習 0.64
3 – We propose an anomaly detection neural network pipeline which overcomes the limitations of VAE models: by relying on an auto-decoder architecture, our network generates anomaly-free reconstructions. 3 自動デコーダアーキテクチャを頼りにすることで、我々のネットワークは異常のない再構築を生成する。
訳抜け防止モード: 3 VAEモデルの限界を克服する異常検出ニューラルネットワークパイプラインを提案する。 オート-デコーダアーキテクチャに頼ることで、ネットワークは異常-自由な再構築を生成する。
0.80
Additionally, the implicit field representation is detached from a specific input resolution and can be scaled seamlessly to deal with high resolution 3D medical images; さらに、暗黙のフィールド表現は特定の入力解像度から切り離され、高解像度の3D医療画像を扱うためにシームレスにスケールすることができる。
訳抜け防止モード: さらに、暗黙のフィールド表現は特定の入力解像度から切り離される シームレスに拡大できます 高解像度の3D医療画像を扱うために
0.81
– We tested this approach in the task of unsupervised localization of gliomas on brain MR images and compared it to several other VAE-based approaches. 本手法は,脳MR画像上のグリオーマの非教師的局在化を課題とし,他のVAE法と比較した。 0.60
The proposed technique substantially outperforms the competition both in terms of accuracy (average DICE 0.640 vs 0.518 for the best performing competitor) and computing speed (55.4 s vs 293.1 s, respectively). 提案手法は、精度(平均dice 0.640対0.518)と計算速度(それぞれ55.4 s対293.1 s)の両方において競合を実質的に上回っている。 0.70
2 Methods Implicit field representation: While a 3D image is typically represented by the intensities of a set of discrete voxels, implicit field networks learn a continuous function f with spatial coordinates p = (x, y, z) ∈ R3 as input. 2つの方法 暗黙的場表現: 3次元画像は通常、離散ボクセルの集合の強度によって表現されるが、暗黙的場ネットワークは、空間座標 p = (x, y, z) ∈ r3 を入力として連続関数 f を学習する。 0.73
Instead of a binary label for object/background classification, we propose that this function maps to the probability distribution over C classes, each representing a range of voxel intensities (see next section). 対象/背景分類のためのバイナリラベルの代わりに、この関数はCクラス上の確率分布にマップされ、それぞれがボクセル強度の範囲を表す(次の節を参照)。 0.78
In addition to the spatial coordinates, the network receives as input a latent variable z ∈ RD which describes a specific 3D image: 空間座標に加えて、ネットワークは、特定の3D画像を記述する潜在変数 z ∈ RD を入力として受信する。 0.84
f : R3 × RD → {1, 2, ...C} f : R3 × RD → {1, 2, ...C} 0.98
(1) The network f learns the posterior probability over intensity ranges for continuous spatial coordinates p and latent variables z. (1) ネットワークfは、連続的な空間座標pおよび潜在変数zの強度範囲の後方確率を学習する。 0.82
We model the posterior probability using a softmax activation: 我々はソフトマックスアクティベーションを用いた後部確率をモデル化する。 0.69
P (t = j | z, p) = P (t = j | z, p) = 0.85
(cid:80)C exp f j(z, p) i exp f i(z, p) (cid:80)c exp f j(z, p) i exp f i(z, p) 0.84
(2) The latent variables z are obtained using the auto-decoder architecture proposed in [9]: as opposed to training an encoder network to produce the latent representation, in the auto-decoder approach each training 3D image is paired with a D-dimensional vector in an embedding space. (2) 遅延変数zは[9]で提案されたオートデコーダアーキテクチャを用いて取得される:エンコーダネットワークをトレーニングして遅延表現を生成するのに対し、オートデコーダアプローチでは、各トレーニング3D画像が埋め込み空間内のD次元ベクトルとペアリングされる。 0.81
During training, backpropagation optimizes not only the network parameters but also the latent vector representation of each 3D image. トレーニング中、バックプロパゲーションはネットワークパラメータだけでなく、各3D画像の潜在ベクトル表現も最適化する。 0.82
In the auto-decoder architecture (see Fig 1), at inference time, the latent vector is initialized randomly and optimization is used to find the latent representation that better represents the test 3D image. 自動デコーダアーキテクチャ(図1)では、推論時に潜在ベクトルがランダムに初期化され、テスト3Dイメージをより良く表現する潜在表現を見つけるために最適化される。 0.78
Specifically, during training the expression 3 is used to optimize latent codes and parameters θ of network fθ by sampling K data points from N training 3D images: 具体的には、トレーニング中、Nトレーニング3D画像からKデータポイントをサンプリングすることにより、ネットワークfθの潜伏符号とパラメータθを最適化するために式3を使用する。 0.63
N(cid:88) K(cid:88) n(cid:88) k(cid:88) 0.78
( arg min θ,{zi}N ( arg min θ,{zi}N 0.80
i=1 i=1 j=1 i=1 i=1 j=1 0.59
L(fθ(zi, pi,j), ti,j) + L(fθ(zi, pi,j), ti,j) + 0.85
1 σ2(cid:107)zi(cid:107 )2 1 σ2(cid:107)zi(cid:107 )2 0.82
2) (3) 2) (3) 0.85
英語(論文から抽出)日本語訳スコア
4 S. Naval Marimont and G. Tarroni 4 S. Naval Marimont と G. Tarroni 0.88
Fig. 1. Schema for auto-decoder training. フィギュア。 1. 自動デコーダトレーニング用のスキーマ。 0.66
A latent vector is obtained for a training sample and concatenated with coordinates sampled from the 3D image volume. トレーニングサンプルに対して潜伏ベクトルを取得し、3D画像ボリュームからサンプリングされた座標と連結する。 0.73
The network learns the mapping (latent features, coordinates) → multiclass encoding of voxels intensities. ネットワークはvoxels強度のマッピング(相対的特徴、座標) → マルチクラスエンコーディングを学習する。 0.84
Note that L is the cross-entropy loss between network output and the true voxel class t ∈ {1, 2, . L はネットワーク出力と真のボクセル類 t ∈ {1, 2, の間のクロスエントロピー損失である。 0.73
. . C}. Similarly to [9], we assumed the prior for the latent codes distribution to be a spherical multivariate-Gaussia n with covariance σ2I. . . C}。 9] と同様に, 潜在符号分布は共分散 σ2i を持つ球面多変量ガウジアンであると仮定した。 0.82
The σ hyperparameter allows to modulate the amount of regularization in the latent distribution. σハイパーパラメータは、潜在分布における正規化量の変調を可能にする。 0.71
During inference, the expression 3 is optimized only for z (fixing network parameters θ), obtaining the latent code that best describes a given test 3D image. 推論中、式3はz(ネットワークパラメータθの固定)にのみ最適化され、与えられたテスト3D画像を最もよく記述した遅延コードが得られる。 0.71
Fig. 2. Left: intensity and count of voxels per cluster (using kMeans, with k = 10, on 2 million voxels randomly sampled across multiple subjects). フィギュア。 2. 左:クラスタ毎のボクセルの強度と数(k = 10のkMeansを使い、複数の被験者でランダムにサンプリングされた200万のボクセル)。 0.63
Right: effects of intensity range encoding on a sample image. 右: サンプル画像に対する強度範囲符号化の効果。 0.76
英語(論文から抽出)日本語訳スコア
Implicit field learning for unsupervised anomaly detection in medical images 医療画像における教師なし異常検出のための暗黙的フィールド学習 0.64
5 We also utilized the coordinate encoding function described in [7], by which each of the coordinates in p is first normalized to the range [-1,1] and later encoded using the expression 4 (shown for x. 5 また, [7] で記述された座標符号化関数を用いて, p 内の各座標を [-1,1] の範囲に最初に正規化し,後に式 4 を用いて符号化する。 0.85
We used L=10 in our experiments): 実験ではL=10を用いた。 0.77
γ(x) = (sin(20πx), cos(20πx), ..., sin(2L−1πx), cos(2L−1πx)) γ(x) = (sin(20πx), cos(20πx), ..., sin(2L−1πx), cos(2L−1πx)) 0.87
(4) Intensity range encoding: Instead of modelling 3D image intensities as a continuous variable, we discretize the intensity values in C clusters, allowing the neural network to learn the probability distribution over C classes of intensities. (4) 強度範囲エンコーディング: 3次元画像インテンシティを連続変数としてモデル化する代わりに、cクラスタのインテンシティ値を識別し、ニューラルネットワークがインテンシティのcクラス上の確率分布を学習できるようにする。 0.80
We wish to define the intensity clusters so that the encoding preserves as much information as possible in the original volume. エンコーディングが元のボリュームで可能な限り多くの情報を保存できるように、強度クラスタを定義したいと思います。 0.64
With this objective, we use kMeans, treating the number of clusters as an hyper-parameter (see Fig 2). この目的により、kMeansを使用し、クラスタ数をハイパーパラメータとして扱う(図2参照)。 0.72
The rationale behind intensity range encoding is two fold. エンハンスレンジエンコーディングの理論的根拠は2つある。 0.58
First, it enables a rather straightforward extension of implicit field learning approaches to the task of image reconstruction. まず、画像再構成のタスクに対する暗黙の場学習アプローチの比較的簡単な拡張を可能にする。 0.72
Second, it allows to untie the computation of the AS from distances in image intensities between original image and reconstructed version (which is the most common strategy for approaches based on generative models). 第二に、オリジナルの画像と再構成されたバージョンの間の画像強度の距離からASの計算を解き放つことができる(これは生成モデルに基づくアプローチの最も一般的な戦略である)。 0.77
Instead, in the proposed technique the AS is derived from the predicted probability over intensity clusters, which we assume to better represent different tissue types. その代わり、提案手法では、asは、異なる組織タイプをよりよく表現できると仮定した、強度クラスター上の予測確率から導出される。 0.67
Mode-pooling smoothing: We found that smoothing and denoising the 3D images volumes slightly improved anomaly detection accuracy for our approach. モードプーリングのスムース化: 3次元画像のスムース化とデノーミングにより,本手法の異常検出精度はわずかに向上した。 0.74
In order to preserve the overall structures and only remove spurious intensity values, we propose a 3D mode-pooling layer which, for a 3-dimensional sliding window, returns the most common intensity cluster. 全体構造を保存し,スプリアス強度値のみを除去するために,3次元スライディングウインドウに対して,最も一般的なインテンシティクラスタを返す3次元モードプーリング層を提案する。 0.83
We used a 2x2x2 modepooling filter in our training set and 3x3x3 in validation and test sets. トレーニングセットでは2x2x2モードプールフィルタ,検証とテストセットでは3x3x3を使用しました。 0.61
Voxel-wise Anomaly Score (AS): At inference time, we aim at retrieving a healthy image from the model consistent with a test image. Voxel-wise Anomaly Score (AS): 推論時には、テスト画像と整合したモデルから健全な画像を取得することを目的としている。 0.67
The retrieved image is called a restoration, as it preserves consistency with the test image but it belongs to the learnt distribution of healthy images. 検索した画像は、テスト画像との整合性を維持するため復元と呼ばれるが、健康画像の学習された分布に属する。 0.72
Anomalies are finally located by comparing the restoration with the test image. 復元とテスト画像を比較することで、最終的に異常が検出される。 0.47
In order to generate a restoration, we move along latent space searching for the latent vector z that minimizes the following expression over K randomly sampled data points: 復元を生成するために、K個のランダムサンプリングデータ点上の次の式を最小化する潜在ベクトル z を探索する潜在空間に沿って移動する。 0.73
K(cid:88) L(fθ(z, pj), tj) + k(cid:88) L(fθ(z, pj), tj) + 0.82
1 σ2(cid:107)z(cid:107) 2 1 σ2(cid:107)z(cid:107) 2 0.82
2) (5) arg min ( 2) (5) arg min (複数形 arg mins) 0.71
z j=1 Minimization is performed with Adam optimizer for 700 steps with K = 16,200. z j=1 最小化は、K = 16,200の700ステップでアダム・オプティマイザを用いて行われる。 0.65
Once a restoration is generated with the retrieved z, we can compute a voxel-based anomaly score (AS). 検索されたzで復元が生成されると、voxelベースの異常スコア(as)を計算できる。 0.66
Specifically, we estimate the probability over intensity clusters for each voxel using the network and compute the voxel-wise 具体的には,ネットワークを用いて各ボクセルの強度クラスター上の確率を推定し,そのボクセル単位で計算する。
訳抜け防止モード: 具体的には,ネットワークを用いて各ボクセルの強度クラスターの確率を推定する。 ボクセルを 賢く計算し
0.68
英語(論文から抽出)日本語訳スコア
6 S. Naval Marimont and G. Tarroni 6 S. Naval Marimont と G. Tarroni 0.88
cross-entropy loss between the test image and the restoration as anomaly score: 異常スコアとしてのテスト画像と復元の間のクロスエントロピー損失 0.76
AS = − log P (t = tGT | z, p) AS = − log P (t = tGT | z, p) 0.85
(6) where tGT is the true voxel intensity after intensity range encoding. (6) tGTは強度範囲エンコーディング後の真のボクセル強度である。 0.79
The proposed voxel-wise AS is similar to the one in [11], replacing absolute residuals with cross-entropy to account for the intensity range encoding. 提案されたボクセル級ASは[11]のASと似ており、絶対残基をクロスエントロピーに置き換えてエンテンシティ範囲の符号化を行う。 0.63
We also perform post-processing to denoise the obtained AS obtained using a min-pooling layer (with filter size = 3) and average-pooling layer (with filter size = 15), both 3-dimensional. また,3次元のMin-pooling層(フィルタサイズ=3)と平均プール層(フィルタサイズ=15)を用いて得られたASを復調するポストプロセッシングを行った。 0.82
3 Experiments and Results Experimental set-up: We tested our approach by training the proposed technique on a dataset of brain MR images from healthy subjects and testing it on images with gliomas. 3 実験と結果 実験装置: 健常者からの脳MR画像のデータセットを用いて提案手法を訓練し, グリオーマを用いた画像を用いて実験を行った。 0.78
As benchmarks, we trained and tested 3 VAE-based anomaly detection techniques. ベンチマークでは,3つのVAEベースの異常検出手法を訓練し,テストした。 0.55
Since these methods have been originally presented with 2D architectures, we created a 2D version of our approach (which used MR slices as inputs) to enable a fairer comparison. これらの手法はもともと2次元アーキテクチャで提示されていたため、より公平な比較を可能にするために、我々のアプローチの2次元バージョン(MRスライスを入力として使用)を作成しました。 0.59
In the 2D experiments we processed 1 every 4 axial slices, (i.e., 40 slices per volume). 2次元実験では,4軸スライス毎に1回処理した(体積40スライス)。 0.74
We then evaluated our approach in its native 3D implementation using 3D MR image volumes for training and testing. そして,3次元MR画像量を用いて,本手法をネイティブな3次元実装で評価した。 0.67
Datasets and data pre-processing: We use two publicly available brain MRI datasets: データセットとデータ前処理:2つの公開脳MRIデータセットを使用します。 0.71
– The Human Connectome Project Young Adult (HCP) dataset [13] with im- – Human Connectome Project Young Adult (HCP) データセット [13] with im- 0.88
ages of 1,112 young and healthy subjects. 若年・健常者1,112名。 0.48
– The Multimodal Brain Tumor Image Segmentation Benchmark (BRATS) BRATS(Multimodal Brain tumor Image Segmentation Benchmark) 0.63
[5], 2018 edition dataset, consisting of images with annotated gliomas. 注釈付きグリオーマを備えたイメージで構成された2018年版データセット。 0.63
The training set consists of 1,055 images from HCP, the test set of 50 images randomly sampled from BRATS and the validation set of 11 (6 from BRATS and 5 from HCP), used for hyper-parameter tuning. トレーニングセットは、HCPの画像1,055と、BRATSからランダムにサンプリングされた50の画像と、ハイパーパラメータチューニングに使用される11(BRATSから6、HCPから5)の検証セットからなる。 0.75
In both HCP and BRATS we use the pre-processed, skull-stripped T2-weighted structural images. HCPとBRATSでは、前処理された頭蓋骨を張ったT2重み構造画像を使用する。 0.50
Additionally, in all experiments but one, both datasets were downsampled to 160x160x160 resolution, intensities were clipped to the percentile 98 and later normalized to the range [0,1]. さらに、どの実験でも、2つのデータセットは160x160x160にダウンサンプリングされ、インテンシティはパーセンタイル98にカットされ、後に[0,1]の範囲に正規化された。 0.54
In one experiment, we tested our approach using instead the original, high-resolution images, training at 300 voxel resolution in HCP and testing at 240 voxel resolution in BRATS. 1つの実験では、元の高解像度画像を用いて、HCPで300ボクセル解像度でトレーニングし、BRATSで240ボクセル解像度でテストした。 0.70
No augmentations were performed in training the proposed technique. 提案手法の訓練では補足は行われなかった。 0.64
Elastic transforms, scaling, rotations and random brightness and contrast were instead applied to all VAEs benchmark experiments. 代わりに弾性変換、スケーリング、回転、ランダム輝度、コントラストがすべてのvaesベンチマーク実験に適用された。 0.65
In VAE experiments, images are also normalized to have zero mean and unit standard deviation. VAE実験では、画像は平均と単位標準偏差がゼロとなるように正規化される。 0.72
For our approach, k=10 was chosen for intensity clustering after tuning. 提案手法では,k=10をチューニング後の強度クラスタリングに用いた。 0.59
英語(論文から抽出)日本語訳スコア
Implicit field learning for unsupervised anomaly detection in medical images 医療画像における教師なし異常検出のための暗黙的フィールド学習 0.64
7 Network architecture and implementation details: We used the same network architecture and training details from [9] for all our experiments. 7 ネットワークアーキテクチャと実装の詳細: 実験のすべてに、同じネットワークアーキテクチャと[9]からのトレーニングの詳細を使用しました。 0.82
The decoder is a feed-forward network composed of 8 fully-connected layers. デコーダは、8つの完全接続層からなるフィードフォワードネットワークである。 0.71
Latent dimensionality is 256, all hidden layers have 512 units and use ReLU as activation and weight normalization. 遅延次元は256であり、すべての隠蔽層は512個のユニットを持ち、ReLUを活性化および重量正規化として使用する。 0.55
We apply dropout in all layers with probability 0.2. 確率0.2の全ての層にドロップアウトを施す。 0.67
The embedding space is initialized with N (0, 0.012) and the prior covariance hyper-parameter is set to σ = 0.01. 埋め込み空間は N (0, 0.012) で初期化され、先行共分散超パラメータは σ = 0.01 となる。 0.80
Training lasted 2,000 epochs with Adam optimizer and we applied a learning rate decay. トレーニングはAdam Optimizationrで2000エポックに続き、学習率の減衰を適用しました。 0.60
Training batches are composed of 97,200 randomly sampled points (16,200 points from 6 different volumes). 訓練バッチはランダムにサンプリングされた97,200点(6巻から16,200点)で構成されている。 0.48
Implementation, trained models and test sets identifiers are made publicly available in 3. 実装では、トレーニングされたモデルとテストセットの識別子が3.3で公開されている。 0.42
All experiments were run using a Nvidia GTX 1070 GPU. すべての実験はNvidia GTX 1070 GPUを使用して行われた。 0.78
In 2D experiments, we assign a latent code with 256 dimensions to each axial slice instead of the whole volume and prediction is also conditioned on the axial coordinate. 2次元実験では,各軸方向スライスに256次元の潜在符号を割り当て,軸方向座標上で予測を行う。 0.62
At inference time, we obtain an AS for one axial slice every four. 推論時には、4つに1つの軸スライスに対してASを得る。 0.61
Each axial AS is replicated 4 times to return to the original axial resolution and the AS post-processing (min-pooling and average-pooling) is performed with 3D filters on the resulting volume. 各軸ASを4回複製して元の軸解像度に戻すとともに、3DフィルタでAS後処理(ミニプール、平均プール)を行う。 0.70
We also followed this methodology in all 2D VAE benchmarks. また、この手法を全2DVAEベンチマークで追った。 0.55
Performance evaluation: In order to assess the voxel-wise anomaly detection performance we followed the conventions used in [1]. 性能評価: voxel-wise 異常検出性能を評価するために, [1] で使用される規則に従った。 0.81
We report the best possible DICE score [DICE] in our test set which is calculated as the maximum DICE taking into consideration all individual voxels in the test set. テストセット内の全ボクセルを考慮に入れた最大DICEとして算出したDICEスコア[DICE]を,テストセット内での最良のDICEスコア[DICE]を報告する。 0.72
Additionally, we determine the optimal threshold for AS using the validation set and calculate the DICE score using this threshold for each subject in the test set. さらに、検証セットを用いてASの最適しきい値を決定し、テストセットの各被験者に対してこのしきい値を用いてDICEスコアを算出する。 0.75
Mean and standard deviations of subject specific DICE scores are reported in Table 1. 表1において、対象特定ダイススコアの平均および標準偏差を報告する。 0.74
We also report Average Precision (AP), area under Receiver Operating Characteris- また、受信者動作特性に基づく平均精度(AP)について報告する。 0.60
3 https://github.com/s navalm/ifl unsup anom det 3 https://github.com/s navalm/ifl unsup anom det 0.59
Table 1. Experimental results on BRATS 2018 dataset. 表1。 BRATS 2018データセットの実験結果。 0.77
[DICE] DICE (µ ± σ) AP AUROC FPR@95R IT (s) [DICE]DICE (μ ± σ) AP AUROC FPR@95R IT (s) 0.85
Method 2 dimensional VAE (1) VAE restoration (2) VQ-VAE (3) IF 2D (ours) 3 dimensional IF 3D (ours) IF 3D* (ours) 1 - VAE with 10 latent dimensions, L1 reconstruction loss. 方法2次元VAE (1) VAE復元(2) VQ-VAE (3) IF 2D (ours) 3次元IF 3D (ours) IF 3D* (ours) 1 - VAE 遅延次元10、L1 再構成損失。 0.85
2 - VAE with 128 latent dimensions, 500 restoration steps as described in [2]. 2 - 潜伏次元128のvae, [2] に記載された500の修復ステップ。 0.70
3 - VQ-VAE 20x20 latent, 8 restorations. 3 - VQ-VAE 20x20、復元8機。 0.65
Implementation and processing from [8]. 8]からの実装と処理。 0.62
* - Train and test in original high-resolution (300 voxel HCP and 240 BRATS) ※-オリジナルの高解像度(300ボクセルHCP・240BRATS)での列車・試験 0.76
0.447 ± 0.161 0.390 ± 0.146 0.518 ± 0.188 0.555 ± 0.178 0.640 ± 0.177 0.447 ± 0.161 0.390 ± 0.146 0.518 ± 0.188 0.555 ± 0.178 0.640 ± 0.177 0.52
0.2229 0.2448 0.1366 0.0456 0.2229 0.2448 0.1366 0.0456 0.45
0.681 0.733 0.716 0.672 ± 0.155 0.771 0.681 0.733 0.716 0.672 ± 0.155 0.771 0.47
0.992 0.994 0.992 0.994 0.50
0.0462 0.0386 0.0462 0.0386 0.50
0.1 79.1 293.1 55.4 0.1 79.1 293.1 55.4 0.45
51.1 64.1 0.472 0.417 0.568 0.612 51.1 64.1 0.472 0.417 0.568 0.612 0.48
0.477 0.413 0.593 0.665 0.477 0.413 0.593 0.665 0.45
0.949 0.936 0.972 0.991 0.949 0.936 0.972 0.991 0.45
英語(論文から抽出)日本語訳スコア
8 S. Naval Marimont and G. Tarroni 8 S. Naval Marimont と G. Tarroni 0.88
tics (AUROC), the False Positive Rate at 95% recall (FPR@95R) and inference time per image volume in seconds (IT (s)). tics (AUROC), False Positive Rate at 95% recall (FPR@95R) and inference time per image volume in seconds (IT (s))。 0.75
At 160 voxel resolution, the proposed 3D implicit fields (IF) method improved mean DICE score by 12 points (0.640 vs 0.518 of VQ-VAE). 160voxel分解能において,提案手法は平均ディススコアを12点改善した(vq-vaeの0.640対0.518)。 0.67
A moderate increase of 4 points was also observed when comparing to the 2D IF implementation. また, 2次元IF法との比較では, 4点の増加が認められた。 0.74
Importantly, our method can also seamlessly capitalize, without architectural modifications, on the 3D high resolution images, with the mean DICE score increasing to 0.672. 重要なことは,DICEの平均スコアが0.672となる3次元高解像度画像に対して,設計上の変更を伴わずにシームレスに収益化できるということだ。 0.62
While convolutional architectures require pre-specified resolutions, the implicit fields auto-decoder approach allowed us to train and test in different resolutions. 畳み込みアーキテクチャは事前に指定した解像度を必要とするが、暗黙のフィールドオートデコーダアプローチにより、異なる解像度でトレーニングとテストができるようになった。
訳抜け防止モード: 畳み込みアーキテクチャはプリ-指定解像度を必要とするが、暗黙のフィールドオート-デコーダアプローチ 異なる解像度でトレーニングとテストを可能にしました。
0.53
Qualitative results are shown in Fig 3. 質的な結果は図3に示されます。 0.72
These results show that our method improves on the state-of-the-art in the task of localizing anomalies when training and testing using different datasets with different acquisition protocols. これらの結果から,本手法は,異なる取得プロトコルを用いた異なるデータセットを用いたトレーニングおよびテストにおいて,異常の局所化作業における最先端性の向上を図っている。 0.61
It is expected that image augmentation would help alleviate the differences produced by diverse acquisition pipelines, however augmentations were not applied in our method implementation. 画像拡張は,多種多様な獲得パイプラインが生み出す差を緩和する効果が期待できるが,本手法の実装には適用されなかった。 0.76
The auto-decoder architecture forces a latent code to be pre-assigned to each training sample, consequently the augmented images need to be consistent across training epochs. 自動デコーダアーキテクチャは、潜在コードを各トレーニングサンプルに事前に割り当てるように強制する。
訳抜け防止モード: auto - decoderアーキテクチャは、各トレーニングサンプルに割り当てられた潜在コードをpreに強制する。 したがって、拡張されたイメージはトレーニング期間にわたって一貫性を持つ必要がある。
0.57
Inference computing time is also moderate, with 51 seconds per volume for the 3D experiments. 推論の計算時間も適度であり、3D実験には51秒のボリュームがある。 0.74
Note that for 2D methods, the time reported correspond to only one every four axial slices and consequently it is not directly comparable with IF 3D methods. 2D法では、報告された時間は4軸スライス毎に1つしか対応せず、IF 3D法と直接比較しない。 0.73
The inference time is mostly associated with the optimization required to retrieve the latent test image representation. 推論時間は主に、潜時テスト画像表現を取得するのに必要な最適化に関連付けられている。 0.69
Adding an encoder network to the architecture would further reduce the inference time (either switching to an auto-encoder architecture or training an encoder after the auto-decoder, similarly to [10]). アーキテクチャにエンコーダネットワークを追加することで、推論時間がさらに短縮される(オートエンコーダアーキテクチャに切り替えるか、[10]と同様にオートデコーダの後にエンコーダをトレーニングするか)。 0.78
Fig. 3. Visual comparison of anomaly scores (pink) versus ground truth (black) for two different subjects (central axial slice). フィギュア。 3. anomaly score (pink) と ground truth (black) の2つの異なる被験者に対する視覚的比較 (central axial slice)。 0.71
In brackets, DICE score for the whole subject. ブラケットでは、DICEが全科目で得点する。 0.75
英語(論文から抽出)日本語訳スコア
Implicit field learning for unsupervised anomaly detection in medical images 医療画像における教師なし異常検出のための暗黙的フィールド学習 0.64
9 The optimization used to retrieve restorations translates in stochasticity at inference time because the minimization can converge to slightly different restorations. 9 修復の回復に使用される最適化は、最小化がわずかに異なる修復に収束できるため、推論時に確率的に翻訳される。 0.72
This could become a challenge if the algorithm converged to bad local minima, however it may present as well an opportunity to improve results by calculating the AS taking into consideration multiple restorations near the optimal z. これはアルゴリズムが悪い局所的ミニマに収束した場合に問題となるが、最適なz付近で複数の修復を考慮に入れ、asを計算して結果を改善する機会を与えるかもしれない。 0.65
Finally, in our experiment VAE restoration underperformed VAE reconstruction loss, which is unexpected given the previous studies [1,2]. 最後に, 本実験では, VAE修復がVAE再建の損失を過小評価しており, 前回の研究から予想外であった [1,2]。 0.67
Differences in our implementation, namely deeper architectures with residual blocks, a smaller latent space, batch normalization and differences in image normalization, could have improved our VAE reconstruction or limited the effectivity of the restoration method. 実装の相違,すなわち,残差ブロックによる深いアーキテクチャ,潜在空間の縮小,バッチ正規化,画像正規化の違いは,vaeの再構成や復元法の効果を制限できる可能性がある。 0.75
4 Conclusion We presented a novel unsupervised anomaly segmentation method based on implicit field learning that outperforms previous VAE-based approaches in glioma segmentation in brain MR images. 4 結論 脳mri画像のグリオーマセグメンテーションにおける従来のvaeに基づくアプローチに匹敵する暗黙のフィールド学習に基づく教師なし異常セグメンテーション法を提案する。 0.65
In the future, we intend to perform further evaluations relative to other brain pathologies and medical image modalities. 今後,他の脳の病態や画像のモダリティに対して,さらなる評価を行う予定である。 0.75
References 1. Baur, C., Denner, S., Wiestler, B., Navab, N., Albarqouni, S.: Autoencoders for unsupervised anomaly segmentation in brain mr images: A comparative study. 参考文献 1. baur, c., denner, s., wiestler, b., navab, n., albarqouni, s.: autoencoders for unsupervised anomaly segmentation in brain mr images: 比較研究。
訳抜け防止モード: 参考文献 1. Baur, C., Denner, S., Wiestler, B. Navab, N., Albarqouni, S. : 脳MRI画像における教師なし異常セグメンテーションのためのオートエンコーダ : 比較研究
0.78
Medical Image Analysis p. 101952 (2021) 医用画像解析p.101952(2021年) 0.83
2. Chen, X., You, S., Tezcan, K.C., Konukoglu, E.: Unsupervised lesion detection via image restoration with a normative prior. 2. chen, x., you, s., tezcan, k.c., konukoglu, e.: 非教師なし病変検出。
訳抜け防止モード: 2. Chen, X., You, S., Tezcan, K.C. Koukoglu, E. : 画像修復による非教師的病変検出
0.76
Proceedings of The 2nd International Conference on Medical Imaging with Deep Learning PMLR 102, 540–556 (2020) 3. 第2回医学イメージング国際会議(deep learning pmlr 102, 540-556 (2020) 3 参加報告 0.74
Chen, Z., Zhang, H.: Learning implicit fields for generative shape modeling. Chen, Z., Zhang, H.: 生成形状モデリングのための暗黙の場を学ぶ。 0.78
In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. In:IEEE/CVF Conference on Computer Vision and Pattern Recognitionの開催。 0.83
pp. 5939–5948 (2019) pp. 5939–5948 (2019) 0.85
4. Litjens, G., Kooi, T., Bejnordi, B.E., Setio, A.A.A., Ciompi, F., Ghafoorian, M., Van Der Laak, J.A., Van Ginneken, B., S´anchez, C.I. 4. Litjens, G., Kooi, T., Bejnordi, B.E., Setio, A.A.A., Ciompi, F., Ghafoorian, M., Van Der Laak, J.A., Van Ginneken, B., S ́anchez, C.I 0.88
: A survey on deep learning in medical image analysis. 医用画像分析における深層学習に関する調査 0.67
Medical image analysis 42, 60–88 (2017) 医用画像解析42, 60-88 (2017) 0.85
5. Menze, B.H., Jakab, A., Bauer, S., Kalpathy-Cramer, J., Farahani, K., Kirby, J., Burren, Y., Porz, N., Slotboom, J., Wiest, R., et al : The multimodal brain tumor image segmentation benchmark (brats). 5. Menze, B.H., Jakab, A., Bauer, S., Kalpathy-Cramer, J., Farahani, K., Kirby, J., Burren, Y., Porz, N., Slotboom, J., Wiest, R., et al : The multimodal brain tumor image segmentation benchmark (brats)。 0.87
IEEE transactions on medical imaging 34(10), 1993–2024 (2014) ieee transactions on medical imaging 34(10), 1993-2024 (2014) 0.76
6. Mescheder, L., Oechsle, M., Niemeyer, M., Nowozin, S., Geiger, A.: Occupancy networks: Learning 3d reconstruction in function space. 6. Mescheder, L., Oechsle, M., Niemeyer, M., Nowozin, S., Geiger, A.: Occupancy network: Learning 3d reconstruction in function space。 0.86
In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. In:IEEE/CVF Conference on Computer Vision and Pattern Recognitionの開催。 0.83
pp. 4460– 4470 (2019) pp. 4460– 4470 (2019) 0.92
7. Mildenhall, B., Srinivasan, P.P., Tancik, M., Barron, J.T., Ramamoorthi, R., Ng, R.: Nerf: Representing scenes as neural radiance fields for view synthesis. 7. Mildenhall, B., Srinivasan, P.P., Tancik, M., Barron, J.T., Ramamoorthi, R., Ng, R.: Nerf: シーンを視覚合成のための神経放射場として表現する。 0.84
In: European Conference on Computer Vision. 欧州コンピュータビジョン会議 (european conference on computer vision)。 0.65
pp. 405–421. pp. 405–421. 0.78
Springer (2020) Springer (複数形 Springers) 0.62
8. Naval Marimont, S., Tarroni, G.: Anomaly detection through latent space restoration using vector quantized variational autoencoders. 8. Naval Marimont, S., Tarroni, G.: ベクトル量子化変分オートエンコーダを用いた潜時空間復元による異常検出 0.82
In: 2021 IEEE 18th International Symposium on Biomedical Imaging (ISBI). 2021年IEEE 18th International Symposium on Biomedical Imaging (ISBI)に参加。 0.82
pp. 1764–1767. pp. 1764–1767. 0.78
IEEE (2021) IEEE(2021年) 0.89
英語(論文から抽出)日本語訳スコア
10 S. Naval Marimont and G. Tarroni 10 S. Naval Marimont と G. Tarroni 0.88
9. Park, J.J., Florence, P., Straub, J., Newcombe, R., Lovegrove, S.: Deepsdf: Learning continuous signed distance functions for shape representation. 9. Park, J.J., Florence, P., Straub, J., Newcombe, R., Lovegrove, S.: Deepsdf: 形状表現のための連続符号付き距離関数を学ぶ。 0.88
In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. In:IEEE/CVF Conference on Computer Vision and Pattern Recognitionの開催。 0.83
pp. 165– 174 (2019) pp. 165– 174 (2019) 0.92
10. Schlegl, T., Seeb¨ock, P., Waldstein, S.M., Langs, G., Schmidt-Erfurth, U.: f-anogan: Fast unsupervised anomaly detection with generative adversarial networks. 10. Schlegl, T., Seeb sock, P., Waldstein, S.M., Langs, G., Schmidt-Erfurth, U.: f-anogan: 生成的敵ネットワークによる高速無監督異常検出。 0.81
Medical image analysis 54, 30–44 (2019) 医用画像解析54, 30-44(2019) 0.92
11. Schlegl, T., Seeb¨ock, P., Waldstein, S.M., Schmidt-Erfurth, U., Langs, G.: Unsupervised anomaly detection with generative adversarial networks to guide marker discovery. 11. Schlegl, T., Seeb sock, P., Waldstein, S.M., Schmidt-Erfurth, U., Langs, G.: Unsupervised anomaly detection with Generative adversarial network to guide marker discovery。 0.90
In: International conference on information processing in medical imaging. 医学画像における情報処理に関する国際会議。 0.77
pp. 146–157. pp. 146–157. 0.78
Springer (2017) Springer (複数形 Springers) 0.56
12. Tan, J., Hou, B., Batten, J., Qiu, H., Kainz, B.: Detecting outliers with foreign 12. Tan, J., Hou, B., Batten, J., Qiu, H., Kainz, B.:outliers with foreign 0.83
patch interpolation. arXiv preprint arXiv:2011.04197 (2020) パッチ補間。 arXiv preprint arXiv:2011.04197 (2020) 0.68
13. Van Essen, D.C., Ugurbil, K., Auerbach, E., Barch, D., Behrens, T.E., Bucholz, R., Chang, A., Chen, L., Corbetta, M., Curtiss, S.W., et al : The human connectome project: a data acquisition perspective. 13. Van Essen, D.C., Ugurbil, K., Auerbach, E., Barch, D., Behrens, T.E., Bucholz, R., Chang, A., Chen, L., Corbetta, M., Curtiss, S.W., et al : 人間のコネクトームプロジェクト。
訳抜け防止モード: 13. Van Essen, D.C., Ugurbil, K., Auerbach, E. Barch, D., Behrens, T.E., Bucholz, R. Chang, A., Chen, L., Corbetta, M. Curtiss, S.W., et al : 人間のコネクトームプロジェクト : データ取得の視点から
0.88
Neuroimage 62(4), 2222–2231 (2012) Neuroimage 62(4), 2222–2231 (2012) 0.93
14. Zimmerer, D., Isensee, F., Petersen, J., Kohl, S., Maier-Hein, K.: Unsupervised anomaly localization using variational auto-encoders. 14. zimmerer, d., isensee, f., petersen, j., kohl, s., maier-hein, k.: unsupervised anomaly localization using variational auto-encoder (英語) 0.77
Medical Image Computing and Computer Assisted Intervention – MICCAI 2019. 医療用イメージコンピューティングとコンピュータ支援インターベンション - MICCAI 2019 0.73
Lecture Notes in Computer Science 11767 (2019) コンピュータサイエンス11767の講義ノート(2019年) 0.74
15. Zimmerer, D., Kohl, S.A., Petersen, J., Isensee, F., Maier-Hein, K.H. 15. Zimmerer, D., Kohl, S.A., Petersen, J., Isensee, F., Maier-Hein, K.H. 0.88
: Contextencoding variational autoencoder for unsupervised anomaly detection. 教師なし異常検出のためのコンテキストエンコード変分オートエンコーダ 0.60
arXiv preprint arXiv:1812.05941 (2018) arXiv preprint arXiv:1812.05941 (2018) 0.75
16. Zimmerer, D., Petersen, J., K¨ohler, G., J¨ager, P., Full, P., Roß, T., Adler, T., Reinke, A., Maier-Hein, L., Maier-Hein, K.: Medical out-of-distribution analysis challenge (Mar 2020). 16. Zimmerer, D., Petersen, J., K sohler, G., J sager, P., Full, P., Roß, T., Adler, T., Reinke, A., Maier-Hein, L., Maier-Hein, K.: Medical out-of-distriion analysis Challenge (2020年3月) 0.87
https://doi.org/10.5 281/zenodo.3715870, https://doi.org/ 10.5281/zenodo.37158 70 https://doi.org/10.5 281/zenodo.3715870, https://doi.org/10.5 281/zenodo.3715870 0.33
                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。