論文の概要、ライセンス

# (参考訳) 無監視脳MRIにおける3次元情報活用 [全文訳有]

Leveraging 3D Information in Unsupervised Brain MRI Segmentation ( http://arxiv.org/abs/2101.10674v1 )

ライセンス: CC BY 4.0
Benjamin Lambert, Maxime Louis, Senan Doyle, Florence Forbes, Michel Dojat, Alan Tucholka(参考訳) ある病理から別の病理に大きく異なるため、脳の異常の自動分割は困難です。 現在の手法は教師付きであり、各病理に多数の注釈付き画像を必要とする。 解剖学的変異に対処するために, 変分オートエンコーダ(VAE)を用いて学習した健康モデルの異常を異常として検出する, Unsupervised Anomaly Detection (UAD)法を提案する。 UADに関するこれまでの研究は、2Dアプローチを採用しており、MRIは独立したスライスコレクションとして処理される。 しかし、MRIに含まれる空間情報を十分に活用するわけではない。 本稿では,UADを3D方式で実行し,2Dと3DのVAEを比較することを提案する。 サイドコントリビューションとして、堅牢なトレーニングを保証する新しい損失機能を紹介します。 学習は、健康な脳MRIの多心性データセットを使用して行われ、白マター高輝度および腫瘍病変のセグメント化性能が推定される。 実験は、彼らの2D手法よりも優れた3D手法の興味を示す。

Automatic segmentation of brain abnormalities is challenging, as they vary considerably from one pathology to another. Current methods are supervised and require numerous annotated images for each pathology, a strenuous task. To tackle anatomical variability, Unsupervised Anomaly Detection (UAD) methods are proposed, detecting anomalies as outliers of a healthy model learned using a Variational Autoencoder (VAE). Previous work on UAD adopted a 2D approach, meaning that MRIs are processed as a collection of independent slices. Yet, it does not fully exploit the spatial information contained in MRI. Here, we propose to perform UAD in a 3D fashion and compare 2D and 3D VAEs. As a side contribution, we present a new loss function guarantying a robust training. Learning is performed using a multicentric dataset of healthy brain MRIs, and segmentation performances are estimated on White-Matter Hyperintensities and tumors lesions. Experiments demonstrate the interest of 3D methods which outperform their 2D counterparts.
公開日: Tue, 26 Jan 2021 10:04:57 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
LEVERAGING 3D INFORMATION IN UNSUPERVISED BRAIN MRI SEGMENTATION 非侵襲脳MRIの3次元情報解析 0.63
Benjamin Lambert1, ベンジャミン・ランバート1 0.60
Alan Tucholka1, Alan Tucholka1。 0.84
Maxime Louis1, for Maxime Louis1(英語) 0.69
Senan Doyle1, Florence Forbes2 セナン・ドイル1 Florence Forbes2 0.66
the Alzheimer’s Disease Neuroimaging Initiative* The Alzheimer's Disease Neuroimaging Initiative* 0.84
Michel Dojat3, 1 Michel Dojat3, 1 0.98
Pixyl, Research 2 Univ. Pixyl、研究2 Univ。 0.75
Grenoble Alpes, Grenoble Alpes 0.57
and Development Laboratory, 38000 Grenoble, France Inria, CNRS, Grenoble 38000 Grenoble, France Inria, CNRS, Grenoble 0.52
38000 Grenoble, France 38000 Grenoble, フランス 0.81
INP, LJK, 3 Univ. INP、LJK、 3Univ。 0.72
Grenoble Alpes, Grenoble Alpes 0.57
Inserm, U1216, Grenoble Inserm, U1216, Grenoble 0.99
Institut Neurosciences, GIN, 神経科学研究所, GIN 0.83
38000 Grenoble, France 38000 Grenoble, フランス 0.81
1 2 0 2 n a J 6 2 ] V I . 1 2 0 2 n a j 6 2 ] v i である。 0.82
s s e e [ 1 v 4 7 6 0 1 . s s e e e [ 1 v 4 7 6 0 1 ] である。 0.76
1 0 1 2 : v i X r a 1 0 1 2 : v i X r a 0.85
ABSTRACT segmentation brain of chalis abnormalities Automatic vary considerably from one to anpathology as they lenging, methods are supervised and numerrequire Current other. シャリス異常の抽象的分別脳は、レンティングや方法の監督、電流の要求などにより、ある疾患ごとに大きく異なる。
訳抜け防止モード: ABSTRACT segmentation brain of chalis abnormalities Automatic different from one to anpathology as they lenging。 メソッドは and numerrequire current other .
0.71
task. strenuous a each for annotated ous pathology, images anatomical variability, Unsupervised Anomaly Detackle To detecting proposed, tection (UAD) methods are anomalies as outliers of a Auhealthy model learned using a Variational 2D apon UAD adopted Previous work (VAE). タスク。 画像解剖学的変異, 教師なし異常デタックル 提案手法を検出するため, UAD法は変分2DアポンUAD適用前処理(VAE)を用いて学習したAuhealthyモデルの異常値として異常値である。 0.69
toencoder a processed that MRIs collection a as are proach, meaning of independent slices. toencoder aはMRIがaのように収集する処理であり、独立したスライスを意味する。 0.60
Yet, does not exploit the spatial it fully information in MRI. しかし、MRIでは空間情報を完全に活用していない。 0.82
Here, we propose to perform contained As 3D VAEs. ここでは、As 3D VAEを内蔵することを提案する。 0.65
compare and a UAD in a 2D and 3D fashion function guarantying a new loss contribution, we present side a robust training. 新しい損失貢献を保証する2Dおよび3Dファッション機能のUADを比較し、堅牢なトレーニングを提示します。 0.75
Learning is performed using a multicenbrain MRIs, tric dataset and segmentation perforof healthy mances and on White-Matter Hyperintensities are estimated the demonstrate Experiments interest tumors lesions. マルチチェンブレインMRI, トリクデータセット, および健常マンスごとのセグメンテーションを用いて学習を行い, ホワイトマザー高強度を用いて, 実験が興味ある腫瘍の病変を示すと推定した。 0.66
of 3D methods which outperform their 2D counterparts. 2D方式に勝る3D方式です。 0.72
Index Terms— Deep Learning, Variational Autoencoder, Index Terms - ディープラーニング、変分オートエンコーダ、 0.72
Anomaly Detection, Medical Imaging 異常検出, 医療 イメージング 0.71
INTRODUCTION 1. indicating the are widely used as biomarkers Brain anomalies or disorders. 導入 1. バイオマーカーの脳異常や疾患として広く用いられている。 0.56
Magneurological of many progress presence essential modalImaging an is today (MRI) netic Resonance of a multitude years, In these markers. 多くの進歩の存在のMagneurologicalは必須のmodalImagingの今日(MRI)の多数の年のnetic共鳴、これらのマーカーで。 0.79
reveal to ity recent automatic algorithms anomalies the for detection of brain in MRI has been proposed, with promising results achieved by Deep Learning (DL) approaches. 近年、MRIにおける脳検出のための異常なアルゴリズムが提案され、Deep Learning (DL)アプローチによって有望な結果が得られた。 0.84
obtained partially used *Data in article this preparation were of database (ADNI) the from Alzheimer’s Initiative Neuroimaging Disease the within ADNI (adni.loni.usc.edu). 一部では *Data in article, this prepared was of database (ADNI) from Alzheimer's Initiative Neuroimaging Disease in within ADNI (adni.loni.usc.edu)。 0.87
the investigators As such, ADNI proand/or contributed to the implementation and design of vided of writing analysis in not but data this or participate did of can be found investigators report. 調査官は、ADNIは、分析書の明細書の実施及び設計に寄与し、これ又は参加しなかったデータについては、調査官の報告書を閲覧することができる。 0.56
A complete listing ADNI at: http://adni.loni.usc .edu/wp-content/uplo ads/how_ to_apply/ADNI_Acknow ledgement_List.pdf http://adni.loni.usc .edu/wp-content/uplo ads/how_to_apply/ADN I_Acknowledgement_Li st.pdf 0.35
shape, in a wide range of Anomalies can manifest location automatically detect intensities. 形状は、異常の広い範囲で自動的に強度を検出する位置を示すことができます。 0.59
and To them, most state-ofa approach, use supervised algorithms the-art trained on an annotated large as as dataset [1]. それらに対して、ほとんどのステートオブアアプローチでは、データセット[1]のような注釈付き大規模でトレーニングされた、教師付きアルゴリズムを使用します。 0.50
possible manually Acquisican tion dataset expenand time-consuming both be such of sive. 手動でAcquisican tionデータセットのexpenand時間の両方がsiveのようなものです。 0.55
Besides, these algorithms are specific to the task they are therefore perform poorly when applied on trained for and will images presenting unseen type of anomalies. さらに、これらのアルゴリズムはトレーニングされたタスクに適用されるタスクに特有であり、未知のタイプの異常を示す画像を表示する。 0.66
limitations, these overcome To Unsupervised Anomaly are (UAD) methods Detection proposed. 制限、これらを克服To Unsupervised Anomalyは(UAD)メソッド検出提案です。 0.79
They consist in construction of a healthy model, the which allows to detect deviation from their anomalies from the model. これらは健全なモデルの構築で構成されており、モデルから異常から逸脱を検出することができる。 0.78
Recent DL by patients healthy of learn propose methods a manifold to representations lower-dimensional computing latent the of At scans. 学習が困難な患者による最近のDLは、Atスキャンを遅らせる低次元コンピューティングを表現するマニホールド法を提案する。 0.68
inference, anomalous images are mapped to the learned healthy manifold. 推測すると 異常画像は 学習された健全な多様体に マッピングされます 0.53
An anomaly map is then computed projection. その後、異常マップが計算されます。 0.61
voxel-wise the using healthy from its difference the state-of-the-art the time being to meet Although failing for several have results of supervised methods, UAD approaches data labeled do they advantages: not can be and adapted with different types of very limited to pathologies. voxel-wise the using healthy from its difference of the state-the-art at the time to meet, but fail for several have result of supervised methods, uad approach data labeled do they advantage: not can and adapt with different types of very limited to pathologies. (英語) 0.88
require any adjustments Two types of neural networks are particularly investigated in UAD : Generative Adversarial Networks (GANs) [2] and Variational Autoencoders GANs (VAEs) an use adver[3]. 調整が必要です UADでは特に,GAN(Generative Adversarial Networks)[2]とVAE(Variational Autoencoders GANs)の2種類のニューラルネットワークが検討されている[3]。 0.73
the healthy manifold [4]. 健康な多様体[4]. 0.63
training approach to construct sarial distributions images and latent VAEs into use rather encode to term in a regularization loss function consistheir ensure of VAEs space tency in the [5]. サリアル分布画像と潜在vaesを使用させるためのトレーニングアプローチは、[5]内のvaes空間のテンシーを保証する正規化損失関数の項にエンコードされる。 0.76
Yet, training is known latent this alleviate attempt As [6]. しかし、トレーニングはこの緩和の試みを遅らせることが知られています[6]。 0.67
unstable to issue, we to an be ensure stable propose a robust loss function to a training. 不安定な問題に対して、我々は安定的にトレーニングにロバストな損失関数を提案する。 0.71
research related To the best of our knowledge, all previous 2D fashion, meaning the to UAD tackle the problem in a that 2D independent of collection a as is volume MRI processed computationally this slices. 研究 われわれの知る限りでは、過去の2Dのファッションは、コレクションaから独立して計算処理されたボリュームMRIのように、UDAがこの問題に対処することを意味している。 0.70
Despite being approach efficient, it has several limitations. アプローチは効率的だが、いくつかの制限がある。 0.57
First, requires the selection of homogeneous slices. まず、均質スライスの選択が必要である。 0.72
Top and bottom slices, which contain no compromise they may as excluded, are brain little or tissue, It the training of 2D networks. トップスライスとボトムスライスは、除外される可能性のある妥協を含まないが、脳小または組織であり、2Dネットワークのトレーニングである。 0.64
impairing step because is an it requires hand-tuning and prevents the detection of anoma- ハンドチューニングが必要であり,異常検出を妨げているため,ステップを損なう- 0.68
英語(論文から抽出)日本語訳スコア
the in the in the entire MRI. はあ? では MRI全体においてです 0.64
Second, lies the processing of 2D data does not fully exploit spatial information available scans. 第二に、2Dデータの処理は、利用可能な空間情報を完全に活用していない。 0.64
restriction to 2D may arise This from the significant difficulty of 3D training, which suffers from the high dimensionality of data and the reduction of the number of training samples. 2Dへの制限は、データの高い次元とトレーニングサンプルの数の減少に苦しむ3Dトレーニングの重大な困難から発生する可能性があります。 0.81
Anthe the limitation of other restriction of most the is art state of for on UAD to monocentric previous work datasets training a fails to ensure 7, 8], which clinically realistic [5, setup. anthe the limit of other limit of other limit of the most the is art state of for uad to monocentric previous work datasets training a fails to ensure 7, 8], which clinically realistic [5, setup] (英語) 0.82
3D VAE framework for UAD. UADのための3D VAEフレームワーク。 0.70
In this work, we present a We train 2D and 3D models using proposed robust loss our pathologies them on multiple compare and function acquired clinical real in Experiments conditions. 本研究では, 実験条件下で得られた複数の比較および機能について, 提案された堅牢な損失を用いて2Dおよび3Dモデルを訓練する。 0.72
show that exploiting performances the full images in a 3D fashion leads to better than the usual 2D approaches. フルイメージを3D方式で活用することで、通常の2Dアプローチよりも優れたパフォーマンスが得られることを示す。 0.67
2. METHODS be close 2. 方法 な 接近 0.64
to which UAD using Variational Autoencoders へ つまり 可変オートエンコーダを用いたUAD 0.60
2.1. followed by a decoder. 2.1. 続いてデコーダ 0.80
The VAEs are composed of an encoder image X into a distribution over encoder compresses the input prior regularized the is latent space, to a distribution a Gaussian multivariate be to set conventionally distribution N (z; 0, I). VAEは、エンコーダ上の分布にエンコーダ画像Xで構成され、ガウス多変数が従来分布N(z; 0, I)を設定できる分布に、イズラト空間を正規化する前に入力を圧縮する。 0.81
A point z then sampled from this lais tent distribution and presented to the decoder which produces ˆX of input. その後、この格子テント分布から点 z をサンプリングしてデコーダに提示し、入力の X を生成する。 0.68
reconstruction a the encoder and the bottleneck decoder The separating the configspatial In dense VAEs. エンコーダとボトルネックデコーダの再構成 密集したvaesで構成空間を分離する。 0.75
distinguishes the and spatial the latent uration, VAEs are fully-convolutional, meaning that ∈ RN×h×w vector tensor in 2D and a multi-dimensional is z ∈ RN×d×h×w space dimension, the 3D with N latent in z configuthis the and the width In depth. VAE は完全畳み込みであり、2次元の ∈ RN×h×w ベクトルテンソルであり、多次元は z ∈ RN×d×h×w 空間次元であり、3次元は z で N の潜みを持つ。
訳抜け防止モード: 潜在的な排尿と空間を区別し、VAEは完全に畳み込みです。 すなわち、2次元および多次元の ∈ RN×h×w ベクトルテンソルは z ∈ RN×d×h×w 空間次元である。 3D with N latent in z configuThis the and the width In depth 。
0.87
height, the h w d spatial ration, preserved during the encodinginformation is decoding In the dense configuration, the image is process. エンコーディング情報中に保存される高さ、hwd空間配置はデコードである 密な構成では、画像はプロセスである。 0.73
∈ RN encoded into a 1-dimensional tensor with the use of spatial a and as fully-connected layers, informaconsequence tion is discarded. ∈ RN は空間 a を用いて 1 次元テンソルに符号化され、完全に連結された層として、インフォメーションオンは破棄される。 0.58
on healthy subjects, we perform UAD ustraining After ing reconstruction-based a approach. 健常者に対しては、UADustraining After ing reconstruction-based a approachを実施します。 0.58
the Reconstruction is in the consists approach for DL-based UAD. Reconstruction は DL ベースの UAD に対する consists アプローチにある。 0.84
classical comIt ˆX anomaly maps by subtracting its putation of reconstruction a As to the input of the training, anomalies image X. result once reconstructed are badly to the healthy manprojected thus ifold, By anomaly map. 古典的なcomItのX異常写像は、訓練の入力に関して、異常画像Xの復元の配置を減算することによって、その配置を減算する。
訳抜け防止モード: 古典的な comIt > X の異常写像 トレーニングの入力について、AASの再構築の申請を差し引くこと anomalies image X. result oncestructed is bad to the healthy manprojected so ifold, by anomaly map.
0.81
the in values high to yield and binarizing them with an appropriate threshold, anomalies segmentations are obtained. 収率の高いin値を適切なしきい値で二値化し、異常セグメンテーションを得る。
訳抜け防止モード: 利得と二項化を適度な閾値で行うのに高い値 異常セグメンテーションが取得されます。
0.55
Collapsing-robust 2.2. two-terms a a VAE is of Training ˆX)): lower-bound (ELBO(X, the evidence function: loss L = |X − ˆX|d + DKL(qφ(z|X)|P (z)), d ∈ {1, 2} this the term of side left-hand The tion term, which computes the distance between the 衝突-破壊 2.2. 2-terms a VAE is of Training >X)): 2-terms a VAE is of Training (ELBO(X, the evidence function: loss L = |X − >X|d + DKL(qφ(z|X)|P (z)), d ∈ {1, 2} この項は左辺の項である。 0.86
(1) reconstrucimage X loss performed (1)再構成X 行われた損失 0.70
by minimizing equation is 最小化することで 方程式は 0.62
function z [ = (2) 機能 z [ = (2) 0.83
T 2 ˆX. the Kullbackterm is The second its and reconstruction qφ(z|X) and posterior between (KL) Leibler Divergence the defined prior P (z), which term in regularization a acts as the of VAE using equation (1) is prone space. T2 X。 クルバックターム (Kullbackterm) は第2の項であり、qφ(z|X) と (KL) リーベル・ディバージェンス (Leibler Divergence) の間の後続 P (z) である。
訳抜け防止モード: T2 X。 kullbacktermは第2の its and reconstruction qφ(z|x) であり、(kl ) leibler divergence the defined prior p (z ) の間にある。 正則化のどの項が方程式 (1) を用いた vae のものとして作用するかは、プロネ空間 である。
0.72
latent the Training posterior collapse, meaning to that the network may learn to the to neglect and prior, match variables of a latent subset Soludegrades network thus the of the [6]. トレーニングの後方崩壊を潜在化することは、ネットワークが無視する変数を学習し、前もって、潜在部分集合の変数が [6] のネットワークを消耗させることを意味する。 0.66
generative power tions have been proposed to tackle the problem, including the hyperparameter addition of a to balance both terms of the β equation same motivation, KL annealing [9]. β 方程式の両項のバランスをとるために a のハイパーパラメータを加えること、kl のアニーリング [9] など、この問題に取り組むために生成的パワー割当が提案されている。
訳抜け防止モード: ジェネレーティブ・パワー・オニオンが提案され 問題に取り組むために β方程式の同じモチベーションの両項のバランスをとるための a のハイパーパラメータの追加を含む。 KLアニール [9 ]。
0.79
Following the the KL cyclical including presented, have schedules anbeen nealing schedule described in [10]. 提示を含むKL循環に続いて、[10]に記載されたスケジュールを廃止する。 0.63
We build on this work and propose a custom loss function defined as follows: |X − ˆX|1 (cid:40) LT + β(t)DKL(qφ(z|X)|P (z)) Σ t ∈ [0, 2t for and β(t + T ) = β(t) with β(t) = T else 1 values the moving mean the L last on computed where Σ is term, and T the iteration current is the reconstruction of the t that are two hyperparameters we and duration. 我々はこの研究に基づいて、次のように定義されるカスタム損失関数を提案する: |X − >X|1 (cid:40) LT + β(t)DKL(qφ(z|X)|P(z)) Σ t ∈ [0, 2t for and β(t + T ) = β(t) with β(t) = T else 1 value the moving mean the L last on Computed where Σ is term, T the iteration current is a reconstruction of the t that are two hyperparameters we and duration。 0.93
cycle T L choose experiments. サイクル T L は実験を選択する。 0.74
We our 10 set in 50 to respectively and reduce norm as reconstruction term to blurring of the the (cid:96)1 reconstructed images. 我々は, 50 に設定した 10 個の画像から (cid:96)1 の再構成画像のぼやけまで, 復元用語としてのノルムを減らした。 0.67
Normalizing this its moving term by mean maintains the term near one, which enreconstruction training entire the throughout courages learn to network the becomes reconstruction even when stage Coupled satisfying. この移行期間を平均的に正規化することは、すべての勇気を再構築する訓練を1つに維持し、たとえカップリングが満足する段階であっても、再編成のネットワーク化を学ぶ。 0.52
with the KL cyclical annealing schedule, we obtain a loss robust to collapsing which ensures a stable training of VAEs. kl周期的なアニーリングスケジュールにより,vaesの安定なトレーニングを保証するような崩壊にロバストなロスが得られる。 0.73
use We in tuning parameter additional any loss without this our all experiments. use このすべての実験なしで、パラメータの追加的な損失をチューニングします。 0.69
2.3. Architecture Details convolutional are encoders Our lay4 layers: of composed 6 additional the input layers image, compressing ers and 2 to distribution normal encode the result into by computing its a parameters µ and σ. 2.3. アーキテクチャの詳細畳み込みはエンコーダです4層:6つの追加の入力レイヤイメージで構成され、ersと2を圧縮して、そのパラメータμとσを計算することによって結果を正規にエンコードします。 0.72
These two last layers are convolutional configuration, spatial the in for fully-connected and dense vector sampled from this VAEs. これら2つの最後の層は畳み込み構成であり、空間は、このVAEからサンプリングされた完全連結密度ベクトルである。 0.61
A latent is then distribuz and decoder. 潜在子はdistribuzとdecoderである。 0.57
tion passed to the Decoders adopt a symmetric architecture with 5 layers deimage. デコーダに渡されたtionは5層デイメージを持つ対称アーキテクチャを採用する。 0.71
the to order compressing Simireconstruct input in z in the convolutional layer of the first spalarly, the decoder is fully-connected tial configuration, and otherwise. 最初のスポーラの畳み込み層の z で入力された Simireconstruct を圧縮するには、デコーダが完全に接続された tial 構成です。 0.75
3D adaptations of our architectures obtained by replacing 2D contheir 3D counterparts. 2D Contheir 3Dを置き換えて得られたアーキテクチャの3D適応。 0.74
by volutions are EXPERIMENTS 3. our on train To FLAIR. 進化によって は 実験3 - FLAIRへのオントレイン。 0.55
brain MRI several scans from opensource healthy IBC 1[11] and Kirby dataset, [12]. 脳MRI オープンソースの健康な IBC 1[11] と Kirby データセットからいくつかのスキャン[12]。 0.76
we networks, datasets : Evaluation of we network, datasets : 評価 0.72
We focus 79 gather the ADNI 79がADNIを集めます。 0.56
英語(論文から抽出)日本語訳スコア
is brain performed on We lesions. 脳は we病巣にて施行。 0.61
datasets present2 different our networks collection ing scans of various 196 a use (WMH) gathwith annotated White-Matter Hyperintensities the MICCAI MSSEG ered from several opensource datasets : Challenge ISBI MS Lesion Challenge [14], and the [13], the brain 100 select Additionally, we [15]. データセットが提示する2つの異なるネットワークコレクションのingスキャン さまざまな196 a use (WMH) gath アノテーション付きWhite-Matter Hyperintensities いくつかのオープンソースデータセットから得られたMICCAI MSSEG:チャレンジISBI MS Lesion Challenge [14]、および[13]、脳100は追加で選択します[15]。 0.83
WMH Challenge tuThese datasets mors from the BraTS 2018 dataset scans [16]. WMH Challenge このデータセットはBraTS 2018データセットスキャンのモース [16]。 0.70
comprise are multi-centric and various scanners and clinical clinically realistic protocols, hence setup. マルチ センターおよびさまざまな走査器および臨床臨床的に現実的な議定書、従ってセットアップで構成されます。 0.50
assuring a 170 × 204 × 170 a temon rigidly are Scans registered bias for of resolution isotropic an plate with corrected 1mm, algorithm HD-BET the [17] and skull-stripped using using 160 × 192 × 75 [18]. 170 × 204 × 170 を堅固に保証することは、補正された1mmのプレート、アルゴリズムHD-BET [17]と160 × 192 × 75 [18]を使用して頭蓋骨ストリップの解像度等方性のためのスキャン登録バイアスです。 0.68
Volumes are then cropped to to concentrate on central slices, for which brain tissue is abundant. ボリュームはその後、脳組織が豊富である中央スライスに集中するためにトリミングされます。 0.73
to [0, 1]. から[0, 1]へ。 0.77
set range intensity Finally, is Segmentations are produced by binarizing anomaly maps, difference as its and image obtained the between an reconthreshold using above struction. set range intensity 最後に、セグメンテーションは異常写像をバイナライズすることによって生成されます。
訳抜け防止モード: 最後に範囲の強度を設定します isのセグメンテーションは 異常写像の双対化、その差、および画像は上記の構造を用いて再構成の間が得られる。
0.64
Binarization is performed a find as are which to order In anomalies. バイナライゼーションは、どの異常を順序付けるかで検索されます。 0.60
considered voxels set split value, we its optimal each testing in half. ボクセルは 分割値を設定した それぞれのテストは 半分に最適だ 0.75
On the first half, we compute Dice scores between ground truths and segmentations obtained with 15 different thresholds, ranged found to be 0.15, which we and between 0 in range relevant a threshold which provided the best the our experiments. 前半では、15の異なるしきい値で得られた基底真理とセグメンテーションの間のダイススコアを計算し、0.15の範囲と0の範囲で関連するしきい値を計算します。
訳抜け防止モード: 前半は 地上の真理の間の サイコロのスコアを計算し 15の異なるしきい値で得られたセグメンテーションは0.15であった。 範囲が0から0の間であれば、実験のベストとなるしきい値が得られます。
0.78
Then, performance is applied on the second half. その後、後半にパフォーマンスが適用されます。 0.74
multiplied by a obtained then The segmentations are to order brain mask, eroded slightly positives false in remove a median filter Finally, brain occurring near the contour. 得られた数で乗算すると、セグメンテーションは脳マスクを注文し、中央フィルターを削除するときにわずかに陽性を侵食し、最後に輪郭の近くで発生する脳。 0.64
is than 10 voxels. 10個以上のボクセルです 0.58
applied to remove regions with less 少ない領域を除去するために適用される 0.64
4. RESULTS using evaluate our We networks segmentation performance persensitivity Dice, and scores. 4. 当社のWeネットワークセグメンテーションパフォーマンスの感度ダイスとスコアを評価します。 0.77
specificity Reconstruction voxel-wise mean formance erthe using estimated is average the (MAE) and reconstruction. 特異性 Reconstruction voxel-wise mean formance erthe using estimated is average the (MAE) and reconstruction。 0.91
its To scan ror between input evaluated on fairly compare 2D and 3D networks, all they are the same 75 central slices for each test scan. かなり比較2Dおよび3Dネットワークで評価される入力間のrorをスキャンするために、すべては各テストスキャンのための同じ75の中心のスライスです。 0.74
Performances of the Spatial 2D and Dense 2D, their 3D adaptations, as as well reconstructions Illustrative 1. in Table presented are segmentations can be found in Figure 1 for both WMH and tumor 3D adaptations lesions. Spatial 2DとDense 2Dのパフォーマンス、それらの3D適応、ならびに再構築 表1. 図1に示すセグメントは、WMHおよび腫瘍3D適応病変の両方の図1に示されています。 0.74
demonstrate a boost performance in datasets, the WMH and Tumors 2D. データセット、WMHおよび腫瘍2Dのブーストパフォーマンスを示します。 0.69
On as compared both to 3D VAE, with the Dense best the scores network dice of is 0.463 ± 0.259 0.650 ± 0.190, specificity and a of and 0.996 respectively. 3D VAEとの比較では、Denseのベストは0.463 ± 0.259 0.650 ± 0.190で、特異性とaは0.996である。 0.75
and 0.981, and a of 0.511 sensitivity 0.711 0.981 と 0.511 感度 0.711 0.91
and 5. 3D methods In this work, MRIs was proposed our 1This data was obtained from the OpenfMRI database. そして 5. 3D法 この研究で提案したMRIは,OpenfMRIデータベースから得られたデータである。 0.80
is ds000244. ds000244です 0.71
DISCUSSION AND CONCLUSION for the UAD brain collapsing-robust evaluated. UAD脳の崩壊・燃焼に対するディスカシジョン・コンクルージョンの評価 0.53
Its accession num- アクセシオン num- 0.62
interest of Using ber in 使用の興味 バー で 0.65
2D and 3D loss function, models were compared on two perforin increase an showing datasets pathological overall in setting. 2Dおよび3Dの損失機能、モデルは設定の病理学全体を示すデータセットの2つのperforinの増加で比較されました。 0.62
3D the mance For VAEs, spatial this gain was more than for dense networks. 3D the mance VAEsでは、高密度ネットワークよりも空間的な利益が大きかった。 0.71
In the dense consignificant figuration, spatial information was not preserved during the addiThus, scheme. 密な決定的な図式では、空間情報は addiThus スキーム中に保存されなかった。 0.66
encoding-decoding the of introduction significantly not use context with spatial tional of 3D did the increase segmentation performance. 3次元空間オプティカルを用いた場合の符号化・復号化では,セグメンテーション性能が向上した。 0.61
Additionally, we the observed that dense networks outperformed spatial networks in both the 2D and 3D cases. さらに,高密度ネットワークは2次元,3次元ともに空間ネットワークよりも優れていた。 0.73
They indeed operated signifia as of compression higher cantly spatial to compared scan the networks. 彼らは実際に、圧縮によりネットワークをスキャンするよりも空間的に高いシグニフィアを操作した。 0.52
Consequently, reconstructions presented very little anomalies were details, and entirely discarded, which made them more easily detectable. その結果、ほとんど異常を示さなかった再建は詳細であり、完全に破棄され、より容易に検出できるようになった。 0.59
satisfybeing although of Performances approaches, our remain lower than state-of-the-art ing, supervised methods. Performancesのアプローチでは満足していますが、最先端の監視メソッドよりも低いままです。 0.49
In in is tumor a Dice score above segmenta[19], obtained 0.9 in tion task, a score for WMH and of is achieved [20] 0.56 Although lesions approaches. 腫瘍では、セグメントa[19]の上のダイススコアが0.9の作業で得られ、WMHのスコアが達成されます[20] 0.56病変が近づいていますが。
訳抜け防止モード: In is tumor a Dice score above segmenta[19 ], obtained 0.9 in tion task, a score for WMH そして、[20 ] 0.56] 病変は近づきつつある。
0.77
supervised segmentation with these fail reaching at standards, UAD methods they are very in a generic promising as fashthey allow to detect anomalies ion and without the use of annotated training samples. これらは標準で失敗し、UADメソッドは、fashtheyが異常イオンを検出することができ、注釈付きトレーニングサンプルを使用せずに、非常に汎用的な有望なものです。 0.63
One the of UAD approaches application interesting generation is starting raw segmentations, which be can of used as a point for manual segmentations, for the rater. UADアプリケーションの興味深い生成方法の1つは、手作業によるセグメンテーションのポイントとして使用できる生のセグメンテーションを開始することです。 0.72
saving time In advanced 3D architectures could be future work, networks. 時間を節約する 高度な3Dアーキテクチャーは将来の仕事、ネットワークかもしれない。 0.63
deeper of tested with to multiExtensions use the sequential MRI data is also of interest. マルチExtensionsへのテストのより深い使用の連続的なMRIデータはまた興味があります。 0.75
COMPLIANCE WITH ETHICAL STANDARDS 6. using retrospectively conducted research huThis subject sources: by available the following man the MICCAI MSSEG Challenge, ADNI, OpenfMRI, NITRC, Challenge, ISBI the and the WMH MS approval was confirmed BraTS 2018. not required the license by the data. 遡及的に実施された研究huを使用して倫理基準6と互換性この主題のソース:利用可能な次の人によって、MICCAI MSSEGチャレンジ、ADNI、OpenfMRI、NITRC、チャレンジ、ISBI、およびWMH MS承認は、データによってライセンスを必要としていないブラッツ2018が確認されました。
訳抜け防止モード: 振り返って実施した研究資料を用いた倫理基準6の補完 : 以下の人物が利用できるようにして ADNI, OpenfMRI, NITRC, Challenge, ISBI, WMH MS承認がBraTS 2018で確認された。 データによるライセンスは必要ありません。
0.74
study was data made Lesion Ethical attached with 研究は、Lesion Ethicalを添付したデータであった 0.68
Challenge as BL, ML, MD and FF serve 挑戦 BL、ML、MD、FFサービス 0.54
SD and AT 7. ACKNOWLEDGMENTS of the board. SDとAT 7. ボードの ACKNOWLEDGMENTS。 0.73
employees advisory are on Pixyl 従業員諮問 is on Pixyl 0.74
Pixyl Company. 8. ピキシル 会社。 8. 0.72
REFERENCES Z. Akkus et “Deep al., learning for brain MRI state tation: directions,” future and art the of 30, no. REFERENCES Z. Akkus et “Deep al.”, learning for brain MRI state tation: direction”, future and art the 30, no。 0.79
4, 2017. vol. Ian Goodfellow et al., Adv Neural D. P. Kingma Int Conf Learn Repres, 2013. 2017年4月。 Ian Goodfellow et al., Adv Neural D. P. Kingma Int Conf Learn Repres, 2013 0.70
Inf Proc Sys, 2014. et Inf Proc Sys, 2014等。 0.89
“Generative al., 『創作』 アル... 0.40
[1] [2] [3] [1] [2] [3] 0.85
“Auto-encoding variational Bayes,” 自動符号化可変ベイズ」 0.60
segmenIm, J Dig segmenIm, J Dig 0.85
adversarial nets,” 敵 Nets”。 0.59
英語(論文から抽出)日本語訳スコア
Fig. 1: Reconstructions フィギュア。 1:再建 0.56
Model Spatial 2D Spatial 3D Dense 2D Dense 3D モデル空間2D空間3Dディセンス2Dディセンス3D 0.59
0.280 ± 0.174 0.336 ± 0.203 0.460 ± 0.262 0.463 ± 0.259 Performance metrics obtained on the 0.280 ± 0.174 0.336 ± 0.203 0.460 ± 0.262 0.463 ± 0.259 パフォーマンス指標 0.67
and segmentations WMH Spe 0.986 0.989 0.994 0.996 test WMH Spe 0.986 0.989 0.994 0.996 テスト 0.62
Dice of our networks. ダイス 私たちのネットワークです 0.64
Left : tumors 左 : tumors 0.81
lesions. Dice : WMH lesions. 病変 ダイス : WMH病変。 0.53
Right Tumors Spe 0.912 0.898 0.978 0.981 右腫瘍spe 0.912 0.898 0.978 0.981 0.51
Sen 0.547 0.605 0.604 0.511 datasets. Sen 0.547 0.605 0.604 0.511データセット。 0.50
MAE 0.049 0.056 0.102 0.104 Spe = Specificity, Sen = Sensitivity, MAE = Mean Average Error. MAE 0.049 0.056 0.102 Spe = specificity, Sen = Sensitivity, MAE = Mean Average Error 0.97
0.260 ± 0.121 0.386 ± 0.160 0.618 ± 0.167 0.650 ± 0.190 0.260 ± 0.121 0.386 ± 0.160 0.618 ± 0.167 0.650 ± 0.190 0.53
MAE 0.079 0.065 0.133 0.151 MAE 0.079 0.065 0.133 0.151 0.50
Sen 0.376 0.655 0.676 0.711 Sen 0.376 0.655 0.676 0.711 0.50
Table 1: [4] テーブル 1: [4] 0.83
[5] [6] [7] [5] [6] [7] 0.85
[8] [9] [10] [8] [9] [10] 0.85
[11] [12] A [11] [12] A 0.85
of Int Conf ですから Int Conf 0.69
survey on GANs for 調査 オン GAN ですから 0.65
anomaly detection “Unsupervised 異常 検出 「監督なし」 0.63
for unsupervised anomaly images: comparative 教師なしの異常画像の場合:比較 0.60
al., F. Di Mattia et “A CoRR, detection,” 2019. al., F. Di Mattia et “A CoRR, detection” 2019年。 0.85
“Autoencoders C. Baur al., et brain segmentation in MR CoRR, 2020. study,” J. Lucas et al , “Understanding posterior collapse in genLearn Repres, erative latent variable models,” 2019. et al., X. in lesions Chen brain MRI using constrained adversarial auto-encoders,” CoRR, 2018. Autoencoders C. Baur al., et brain segmentation in MR CoRR, 2020. study", J. Lucas et al, "Understanding posterior collapse in genLearn Repres, erative latent variable model", 2019. et al., X. in lesions Chen brain MRI using constrained adversarial auto-encoders" CoRR, 2018 0.85
Zimmerer D. toencoder for 2018. 2018年のZimmerer D. Toencoder。 0.66
I. Higgins et cepts a with Conf Learn Repres, al., et Fu H. to approach vol. I. Higgins et cepts a with Conf Learn Repres, al., et Fu H. to approach vol. 0.94
1, 2019. al., et A. L. Pinho dataset fmri resolution tific data, 2018. vol. 1, 2019. al., et A. L. Pinho dataset fmri resolution tific data, 2018. vol。 0.91
5, et B. A. Landman al., reproducibility: a 3T resource 5、等B。 A. Landman al., reproducibility: a 3T resource 0.81
al., “beta-VAE: Learning constrained variational 2016. al., “Beta-VAE: Learning constrained variational 2016”。 0.80
“Cyclical mitigating charting, cognitive mapping,” 「循環緩和」 グラフ化、認知マッピング」。 0.64
neuroimaging NeuroIm, 2011. Neuroimaging NeuroIm、2011。 0.73
simple NAACL-HLT, 単純naacl-hlt 0.65
et al., unsupervised basic visual framework,” 監督なしのal. 基本的なビジュアルフレームワーク” 0.55
“Individual for annealing KL 「個別に」 焼鈍KL 0.63
“Context-encoding 「コンテキストエンコーディング」 0.56
“Multi-parametric 「マルチパラメトリック」 0.58
a highScien- a high‐Scien 0.65
auCoRR, vanishing,” auCoRR 消える」。 0.49
detection,” variational 検出”だ。 variational~ 0.70
schedule: conInt スケジュール: ConInt 0.73
anomaly brain study,” A 異常 脳 勉強」。 A 0.73
[13] [14] [15] [13] [14] [15] 0.85
[16] [17] [18] [16] [17] [18] 0.85
[19] [20] and [19] [20] そして 0.81
sclerosis leNeuroIm- 硬化症LeNeuroIm- 0.56
Commowick and “Objective al., infrastructure,” コモウィックと 「客観的なアル、インフラ」 0.50
“Longitudinal multiple challenge,” resource 長期多重課題」の資源化 0.55
of evaluation lesion segmentation using a data manreScientific データ・マンレシエンティクスを用いた病変分割の評価 0.73
auassessment of hyperintensities IEEE challenge,” no. ハイパーインテンシティーIEEEの課題を訴える”、と彼は言う。 0.39
2019. 11, “The multimodal brain tumor image no. 2019. マルチモーダル脳腫瘍画像はノー。 0.63
34, vol. et Olivier multiple sclerosis agement processing ports, vol. 34, vol. et Olivier multiple sclerosis agement processing port, vol。 0.82
8, no. 1, 2018. et al., Aaron Carass segmentation: sion age, vol. 8、いいえ。 Aaron Carass segmentation: sion age, vol. 2018年1月1日閲覧。 0.76
148, 2017. et al., Hugo J. Kuijf “Standardized segmentation tomatic of matter white segmentation of and the wmh results on medical transactions imaging, vol. Hugo J. Kuijf “Standardized segmentation tomatic of matter white segmentation and the wmh results on medical transaction imaging, vol.”. 2017年1月14日閲覧。 0.79
38, B. H. Menze et al., segmentation benchmark 10, 2014. 38, B.H. Menze et al., segmentation benchmark 10, 2014 0.87
“N4itk: J. Tustison N. N4itk: J. Tustison N。 0.80
al., TMI, vol. al., TMI, vol。 0.80
29, no. 6, 2010. tion,” F. “Automated al., et Isensee using sequence MRI artificial vol. 29、いいえ。 6, 2010. tion", F. “Automated al., et Isensee using sequence MRI artificial vol。 0.78
40, no. 17, 2019. 40、いいえ 17, 2019. 0.71
D. Lachinov et al , “Glioma segmentation with cascaded UNet,” automated multiple “Improving S. Valverde et al., segmentation with rosis lesion a cascaded NeuroIm, tional vol. D. Lachinov et al , “Glioma segmentation with cascaded UNet”, automated multiple “Improving S. Valverde et al., segmentation with rosis lesion a cascaded NeuroIm, tional vol。 0.84
approach,” network neural 2017. とNetwork Neural 2017は述べている。 0.65
scle3D convolu155, scle3D convolu155, 0.67
in BrainLes. Springer, 2018. 脳卒中。 2018年、スプリンガー。 0.53
extraction networks,” 抽出ネットワーク」。 0.63
of multiHBM, improved N3 マルチHBMです。 改良N3 0.72
brain neural (BRATS),” 脳神経 (BRATS)。 0.67
correc- TMI, correc TMI。 0.73
bias et bias など 0.72
         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。