論文の概要、ライセンス

# (参考訳) 心臓MRIにおける左室分節に対するCNN容量の検討 [全文訳有]

A study of CNN capacity applied to Left Venticle Segmentation in Cardiac MRI ( http://arxiv.org/abs/2107.01318v1 )

ライセンス: CC BY-SA 4.0
Marcelo Toledo, Daniel Lima, Jos\'e Krieger, Marco Gutierrez(参考訳) CNN(Convolutional Neural Network)モデルは、心臓MRI(Magnetic Resonance Imaging)における左室(LV)のセグメンテーションに成功し、臨床計測を提供してきた。 2) データセットのサイズがネットワークのパフォーマンスをどの程度変えるか? そこで本稿では,100から1万画像,ネットワークサイズ,学習率,正規化値の異なる6つのサブセットをスクラッチからトレーニングした,u-netファミリーの深層および浅層バージョンを実験し,それらに答えるフレームワークを提案する。 1620モデルについて5-foldcross-validati on by loss and DICE。 サンプルサイズは、アーキテクチャやハイパーパラメータよりもパフォーマンスに影響を与え、小さなサンプルでは、パフォーマンスはアーキテクチャよりもハイパーパラメータに敏感である。

CNN (Convolutional Neural Network) models have been successfully used for segmentation of the left ventricle (LV) in cardiac MRI (Magnetic Resonance Imaging), providing clinical measurements.In practice, two questions arise with deployment of CNNs: 1) when is it better to use a shallow model instead of a deeper one? 2) how the size of a dataset might change the network performance? We propose a framework to answer them, by experimenting with deep and shallow versions of three U-Net families, trained from scratch in six subsets varying from 100 to 10,000 images, different network sizes, learning rates and regularization values. 1620 models were evaluated using 5-foldcross-validati on by loss and DICE. The results indicate that: sample size affects performance more than architecture or hyper-parameters; in small samples the performance is more sensitive to hyper-parameters than architecture; the performance difference between shallow and deeper networks is not the same across families.
公開日: Sat, 3 Jul 2021 00:56:21 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 l u J 1 2 0 2 l u J 0.85
3 ] V I . 3 ] V 私は。 0.82
s s e e [ 1 v 8 1 3 1 0 s s e [ 1 v 8 1 3 1 0 0.77
. 7 0 1 2 : v i X r a . 7 0 1 2 : v i X r a 0.85
A STUDY OF CNN CAPACITY APPLIED TO LEFT VENTRICLE 左室におけるCNN容量の検討 0.33
SEGMENTATION IN CARDIAC MRI 心臓MRIにおけるセグメンテーション 0.60
ARXIV PREPRINT ARXIV プリプリント 0.67
Marcelo A. F. Toledo∗, Daniel M. Lima Marcelo A. F. Toledo∗, Daniel M. Lima 0.88
José E. Krieger, Marco A. Gutierrez José E. Krieger, Marco A. Gutierrez 0.94
Hospital das Clinicas, Faculdade de Medicina, Universidade de Sao Paulo 聖パウロ大学医学部病院 0.32
Av. Dr. Eneas Carvalho de Aguiar 44, Sao Paulo, SP, BR avだ Eneas Carvalho de Aguiar 44, Sao Paulo, SP, BR 0.65
Heart Institute (InCor) 心臓研究所(InCor) 0.92
May 10, 2021 2021年5月10日 0.70
ABSTRACT CNN (Convolutional Neural Network) models have been successfully used for segmentation of the left ventricle (LV) in cardiac MRI (Magnetic Resonance Imaging), providing clinical measurements. ABSTRACT CNN(Convolutional Neural Network)モデルは、左心室(LV)の心筋MRI(Magnetic Resonance Imaging)におけるセグメンテーションに成功し、臨床測定を提供している。 0.83
In practice, two questions arise with deployment of CNNs: 1) when is it better to use a shallow model instead of a deeper one? 実際には、cnnのデプロイメントには2つの疑問がある。 1) 深いモデルではなく、浅いモデルを使う方がよいのか? 0.64
2) how the size of a dataset might change the network performance? 2) データセットのサイズがネットワークのパフォーマンスをどの程度変えるか? 0.85
We propose a framework to answer them, by experimenting with deep and shallow versions of three U-Net families, trained from scratch in six subsets varying from 100 to 10,000 images, different network sizes, learning rates and regularization values. そこで本稿では,100から1万画像,ネットワークサイズ,学習率,正規化値の異なる6つのサブセットをスクラッチからトレーニングした,u-netファミリーの深層および浅層バージョンを実験し,それらに答えるフレームワークを提案する。 0.74
1620 models were evaluated using 5-fold cross-validation by loss and DICE. 1620モデルを5倍のクロスバリデーションとDICEを用いて評価した。 0.65
The results indicate that: sample size affects performance more than architecture or hyper-parameters; in small samples the performance is more sensitive to hyperparameters than architecture; the performance difference between shallow and deeper networks is not the same across families. サンプルサイズは、アーキテクチャやハイパーパラメータよりもパフォーマンスに影響を与え、小さなサンプルでは、パフォーマンスはアーキテクチャよりもハイパーパラメータに敏感である。
訳抜け防止モード: その結果,以下のことが示唆された。 サンプルサイズはアーキテクチャやハイパーパラメータよりもパフォーマンスに影響する 小さなサンプルでは、パフォーマンスはアーキテクチャよりもハイパーパラメータに敏感です。 浅層ネットワークと深層ネットワークのパフォーマンス差は家族間では同じではない。
0.76
Keywords deep learning · model selection · medical imaging · magnetic resonance imaging キーワード深層学習・モデル選択・医療画像・磁気共鳴画像 0.75
1 Introduction The use of deep learning has been growing and becoming very relevant for some types of medical image analysis. 1 はじめに 深層学習の利用は、ある種の医用画像分析において非常に重要になっている。 0.70
Deep learning includes CNN (Convolutional Neural Network) models, which have been successfully used for segmentation of the left ventricle (LV) in cardiac MRI (Magnetic Resonance Imaging) by Chen et al [2020]. ディープラーニングには、CNN(Convolutional Neural Network)モデルが含まれており、Chenらによる心臓MRI(Magnetic Resonance Imaging)における左室(LV)のセグメンテーションに成功している。 0.72
The myocardium segmentation (Figure 1) is the basis for other steps that provide measurements of ventricular function and myocardial viability (such as ejection fraction and ventricular mass), and is used for diagnosis of heart diseases, e g coronary artery disease [Aziz et al , 2013]. 心筋分画(図1)は、心機能および心筋の生存率(排出率や心室量など)を測定する他のステップの基礎であり、冠動脈疾患(アジズ等、2013年)などの心疾患の診断に使用される。 0.71
One of the most successful CNN architectures for medical image segmentation is the U-Net [Ronneberger et al , 2015]. 医療画像セグメンテーションにおいて最も成功したCNNアーキテクチャの1つはU-Net[Ronneberger et al , 2015]である。 0.72
It has been successfully applied in several medical imaging analyses such as pancreas detection [Oktay et al , 2018] and prostate segmentation [Ghavami et al , 2019]. 膵臓検出法(Oktay et al , 2018)や前立腺分画法(Ghavami et al , 2019)など,いくつかの医学的画像解析に成功している。 0.73
Figure 1 shows an example of LV segmentation in cardiac MRI. 図1は心臓MRIにおけるLVセグメンテーションの例を示している。 0.75
One of the limitations of deep learning approaches in many medical applications is the need for large labeled datasets, which are not always available. 多くの医療応用におけるディープラーニングアプローチの限界の1つは、常に利用できるわけではない大きなラベル付きデータセットの必要性である。 0.70
Creating labelled datasets requires clinical specialists for visual inspection and manual marking of images, which is costly and takes significant time. ラベル付きデータセットを作成するには、画像の視覚検査と手動マーキングのための臨床スペシャリストが必要である。
訳抜け防止モード: ラベル付きデータセットの作成 画像の視覚検査と手動マーキングに 臨床スペシャリストが必要です 費用がかかり かなりの時間がかかります
0.82
By considering this limitation, the U-Net architecture was designed for fast convergence and sufficiently accurate segmentation in relatively small datasets [Oktay et al , 2018]. この制限を考慮して、U-Netアーキテクチャは比較的小さなデータセット[Oktay et al , 2018]において、高速収束と十分正確なセグメンテーションのために設計された。 0.64
U-Net is a CNN architecture with many possible variations such as different neural blocks, block width and network depth, so it is possible to balance the performance according to the images under study. u-netはcnnアーキテクチャであり、異なるニューラルネットワークブロック、ブロック幅、ネットワーク深さなど多くのバリエーションがあるため、研究中の画像によるパフォーマンスのバランスをとることができる。 0.75
However, with the deployment of CNNs in medical practice, another two questions arise: 1) when is it better to use a small and shallow model instead of a larger and deeper one? しかし、医療分野におけるcnnの導入によって、次の2つの疑問が生まれている: 1) 大きくて深いモデルではなく、小さくて浅いモデルを使う方が、いつよいのか? 0.66
2) how the number of samples in a dataset might change the network performance? 2) データセット内のサンプル数がネットワークのパフォーマンスをどの程度変化させるか? 0.85
These questions motivate our work, which provides a framework of analysing the CNN これらの質問は我々の仕事の動機となり、cnnの分析のフレームワークを提供する 0.63
∗Corresponding author: marcelo.arruda@hc.fm .usp.br ∗corresponding author: marcelo.arruda@hc.fm .usp.br 0.50
英語(論文から抽出)日本語訳スコア
Study of CNN capacity for LV segmentation in MRI MRIにおけるLVセグメンテーションのためのCNN容量の検討 0.71
ARXIV PREPRINT ARXIV プリプリント 0.67
Figure 1: Cardiac MRI images are acquired in two different axis: short-axis (a-c) and long-axis (d). 図1:心臓MRI画像は、短軸(a-c)と長軸(d)の2つの異なる軸で取得される。 0.80
In (a) we see a cardiac short-axis MRI of heart, centred in the heart, and cropped to frame the right and left ventricles; in (b) the left ventricle myocardium is highlighted, and (c) only shows the left ventricle myocardium segmentation mask. a) 心臓の短軸MRI, 心中心部, トリミングにより右心室と左心室を固定し, b) 左心室の心筋が強調され, c) 左心室の心筋セグメンテーションマスクのみが表示される。 0.67
Images (a-c) are reproduced from the dataset analysed in [Nikolov et al , 2018] and (d) is reproduced from the Atlas of Human Cardiac Anatomy website [Spencer et al , 2013]. 画像(a-c)はNikolov et al , 2018]で分析されたデータセットから再生され、(d)はAtlas of Human Cardiac Anatomy Webサイト [Spencer et al , 2013]から再生される。 0.84
capacity and dataset sizes for medical applications, and demonstrate its applicability to LV segmentation in cardiac MRI. 医療応用のための容量とデータセットサイズ、および心臓MRIにおけるLVセグメンテーションの適用性を示す。 0.78
Our Contributions In order to grasp how dataset size affects U-Net performance in segmentation, this paper describe a framework where we train 18 different U-Nets of different sizes (number of network parameters and depth) and families: VGG [Simonyan and Zisserman, 2014], ResNet [He et al , 2016] and EfficientNet [Tan and Le, 2019]. 私たちの貢献は セグメンテーションにおけるデータセットサイズがU-Netのパフォーマンスに与える影響を明らかにするために、VGG(Simonyan and Zisserman, 2014)、ResNet(He et al , 2016)、EfficientNet(Tan and Le, 2019)の18種類の異なるU-Net(ネットワークパラメータと深さ)とファミリーをトレーニングするフレームワークについて述べる。 0.64
These U-Net variations were trained from scratch in six dataset sizes (suppose patients submitted to MRI study), and also with variations of hyper-parameters learning rate and L2 regularization. これらのU-Net変異は、6つのデータセットサイズ(MRI研究に提出された患者を仮定する)でスクラッチからトレーニングされ、ハイパーパラメータ学習率とL2正規化のバリエーションが得られた。 0.63
They were evaluated with 5-fold cross-validation by the loss and DICE index, and each fold was tested in a separate holdout set. 損失とダイス指数を用いて5倍のクロスバリデーションで評価し,各折りたたみを別々のホールドアウトセットでテストした。 0.78
We then analyse the variables and results in a factorial study using GAM (Generalized Additive Model), ANOVA (Analysis of Variance) and HSD (Honest Significant Difference) tests. 次に変数を分析し,GAM (Generalized Additive Model) , ANOVA (Analysis of Variance) , HSD (Honest Signific difference) を用いた因子分析を行った。 0.73
In summary, our objectives in this paper are: 要約すると、本稿の目的は以下のとおりである。 0.55
• Observe the relationship between prediction error, dataset size and network size; • Identify hyper-parameter effects on performance by linear models, ANOVA and HSD; • Provide a framework to check when the choice for the network to be used in an application might change due • 予測誤差、データセットサイズ、ネットワークサイズの関係を観測する; • 線形モデル、ANOVA、HSDによる性能に対するハイパーパラメータの影響を識別する; • アプリケーションで使用するネットワークの選択がいつ変更されるかをチェックするためのフレームワークを提供する。 0.88
to the number of images available in a training dataset. トレーニングデータセットで利用可能な画像の数についてです 0.74
This paper is organized as follows: Section 2 (Related work) reviews the base CNN architectures for image segmentation and related studies of neural network capacity; Section 3 (Materials and Methods) present the dataset preparation, the neural networks, hyper-parameters, linear models, ANOVA and HSD tests; Section 4 (Experiments) present the experiments, metrics, results and discussion; and Section 5 (Conclusion) summarizes our goals, the proposed framework, achievements and ideas for future investigations. This paper is organized as follows: Section 2 (Related work) reviews the base CNN architectures for image segmentation and related studies of neural network capacity; Section 3 (Materials and Methods) present the dataset preparation, the neural networks, hyper-parameters, linear models, ANOVA and HSD tests; Section 4 (Experiments) present the experiments, metrics, results and discussion; and Section 5 (Conclusion) summarizes our goals, the proposed framework, achievements and ideas for future investigations. 0.87
2 Related work In this section we review related literature in the two main aspects of our framework: biomedical image segmentation (2.1), and how to evaluate neural network capacity (2.2). 2関連作品 本稿では, バイオメディカルイメージセグメンテーション (2.1) と, ニューラルネットワーク容量 (2.2) の評価方法の2つの主要な側面について, 関連文献を概説する。 0.77
2.1 Biomedical Segmentation with U-Net and its backbones 2.1 u-net を用いたバイオメディカルセグメンテーションとそのバックボーン 0.55
U-Net is an encoder-decoder CNN architecture for biomedical image segmentation, which encodes the input image in a sequence of four down-scaling layers (blocks), then up-scales the encoded tensors, concatenates them to the previous input and combines the results in the reversed order, forming a network that resembles an “U”. U-Netは、バイオメディカルイメージセグメンテーションのためのエンコーダ・デコーダCNNアーキテクチャであり、入力画像を4つのダウンスケーリング層(ブロック)のシーケンスにエンコードし、次にエンコードされたテンソルをアップスケールし、それらを以前の入力に結合し、逆順に組み合わせて「U」に似たネットワークを形成する。 0.79
It is possible to change its backbone by replacing the original convolution blocks for well-known blocks from other CNNs, e g residual blocks [Zhao et al , 2017], while keeping the U shape encoder decoder structure. u字型エンコーダのデコーダ構造を維持しつつ、元の畳み込みブロックを他のcnn(例えば残差ブロック [zhao et al , 2017])から置き換えることで、バックボーンを変更することができる。 0.76
The U-Net is trained by minimizing the cross-entropy between the class probabilities of each pixel in the output image and the segmentation mask given as class labels. u-netは、出力画像の各画素のクラス確率とクラスラベルとして与えられるセグメンテーションマスクとのクロスエントロピーを最小化する。 0.77
The success of U-Net led to the proposal of backbone innovations, such as newer versions of the skip connections [Chaurasia and Culurciello, 2017, Zhou et al , 2018]. U-Netの成功は、スキップ接続の新バージョン(Chaurasia and Culurciello, 2017 Zhou et al , 2018)のようなバックボーンイノベーションの提案につながった。 0.71
Other encoder-decoder architectures have also been proposed, some keeping the general U-net structure, and others with novel structures such as feature pyramids [Lin 他のエンコーダ-デコーダアーキテクチャも提案されており、u-netの一般的な構造を保持するものもあれば、特徴ピラミッドのような新しい構造を持つものもある [lin]。 0.56
2 2 0.85
英語(論文から抽出)日本語訳スコア
Study of CNN capacity for LV segmentation in MRI MRIにおけるLVセグメンテーションのためのCNN容量の検討 0.71
ARXIV PREPRINT ARXIV プリプリント 0.67
et al , 2017] and pooling pyramids [Zhao et al , 2017]. et al , 2017]と pooling pyramids [zhao et al , 2017]。 0.75
The standard U-Net backbone is based on VGG [Simonyan and Zisserman, 2014], but we extended our analysis by considering two more state-of-the-art backbones: ResNet [He et al , 2016] and EfficientNet [Tan and Le, 2019]. 標準的なU-NetバックボーンはVGG(Simonyan and Zisserman, 2014)をベースにしていますが、さらに2つの最先端のバックボーン(ResNet [He et al , 2016]とEfficientNet [Tan and Le, 2019])を考慮して分析を拡張しました。 0.72
2.2 Evaluating Neural Network Capacity 2.2 ニューラルネットワークのキャパシティの評価 0.58
Given that there are several U-Net architectures available, making an appropriate choice is challenging and can impact the results of developing applications. いくつかのU-Netアーキテクチャが利用可能であることを考えると、適切な選択を行うことは困難であり、アプリケーション開発の結果に影響を与える可能性がある。
訳抜け防止モード: いくつかのU-Netアーキテクチャが利用可能である。 適切な選択をする 困難であり、アプリケーション開発の結果に影響を与える可能性がある。
0.61
These reflect in two critical aspects of medical studies planning: a) estimating the size of the sample needed for developing an effective solution (both in terms of images and patients) and b) selecting appropriate models, because different medical applications solve problems of different complexities, which thus require different network models of adequate capacity. これらは医療研究計画の2つの重要な側面を反映している: a)効果的なソリューションを開発するのに必要なサンプルのサイズ(画像と患者の両方)を推定し、b) 医療応用が異なる複雑度の問題を解決するため、適切なモデルを選択する。 0.84
However, there is no established method for calculating network capacity nor a consolidated understanding of how it relates to CNN depth and to the number of parameters [Bartlett et al , 2017, Neyshabur et al , 2019]. しかし、ネットワーク容量を計算するための確立された方法や、cnnの深さやパラメータの数とどう関係しているかの理解は確立されていない [bartlett et al , 2017 neyshabur et al , 2019]。 0.76
Addressing these aspects in a clinical study is not trivial. 臨床研究でこれらの側面に取り組むことは、ささいなことではない。 0.56
While bigger networks might be prone to over-fit in small datasets, smaller networks might not have the required capacity for the challenge at hand. 大規模なネットワークは、小さなデータセットで過度に適合する傾向にあるが、小さなネットワークは、その課題に対して必要な能力を持っていないかもしれない。 0.59
A further complication, at least for LV segmentation, is the fact that the relationship between U-Net, dataset sizes and generalization error is not well understood. 少なくともLVセグメンテーションについては、U-Net、データセットサイズ、一般化誤差の関係はよく理解されていない。 0.63
Recent literature [Benkendorf and Hawkins, 2020, Shahinfar et al , 2020] have been investigating sample size issues, so in our approach we extend this investigation to hyper-parameters and network architecture. 近年の文献(Benkendorf and Hawkins, 2020, Shahinfar et al , 2020)ではサンプルサイズの問題が調査されているので,本研究をハイパーパラメータやネットワークアーキテクチャにまで拡張する。 0.83
Next we present our methodology, then experiments, results and conclusion. 次に,提案手法を提示し,実験,結果,結論を示す。 0.68
3 Materials and Methods In this section we present the dataset characteristics, preparation and splitting (Section 3.1, the U-Net CNN architecture and backbones based on VGG, ResNet and EfficientNet (Section 3.2), hyper-parameter optimization (Section 3.3), and the linear models and statistical tests used in the analysis (Section 3.4). 3 材料と方法 本稿では,VGG,ResNet,Efficien tNetに基づくデータセットの特徴,準備と分割(Section 3.1,U-Net CNNアーキテクチャ,バックボーン),ハイパーパラメータ最適化(Section 3.3),解析で使用される線形モデルと統計的テストについて述べる(Section 3.4)。 0.84
3.1 Dataset preparation 3.1データセット作成 0.57
All of the datasets we created are sub-samples of the publicly available Left Ventricle Segmentation Challenge (LVSC) dataset [Nikolov et al , 2018]. 私たちが作成したデータセットはすべて、公開されている左室分離チャレンジ(LVSC)データセットのサブサンプルです [Nikolov et al , 2018]。 0.73
The LVSC training set has cardiac cine-MRI pictures of 100 patients, with diverse number of slices (8–24), slice thickness (6–8mm), slice gaps (2–4mm), number of phases in the cardiac cycle (18–35), image sizes (138×192 to 512×512 pixels) and acquisition devices (GE, Phillips or Siemens MRI scanner systems with 1.5 or 3.0T). LVSCトレーニングセットには、100人の患者の心-MRI画像があり、スライス数(8-24)、スライス厚(6-8mm)、スライスギャップ(2-4mm)、心循環の位相数(18-35)、画像サイズ(138×192から512×512ピクセル)、取得装置(GE、Philips、Siemens MRIスキャナシステム1.5または3.0T)がある。 0.66
All images were loaded into float32 arrays, had the pixel values rescaled to [0,1], resized to 256×256 pixels with area and bi-cubic interpolation respectively for downscaling and up-scaling, and zero padding to maintain aspect ratio. すべての画像はfloat32配列にロードされ、ピクセル値は[0,1]に再スケールされ、それぞれダウンスケーリングとアップスケーリングのために256×256ピクセル、アスペクト比を維持するためにパディングがゼロになった。 0.67
Due to anatomical and positional differences, patient id is a major source of variation, so we sub-sampled 100 images from each patient. 解剖学的および位置的差異から,患者IDが主な変化源であり,各患者の画像100点をサブサンプリングした。 0.82
In order to stratify samples in the whole cardiac volume, we selected an approximately equal number of images from each slice, regularly spaced throughout the cardiac cycle (images (cid:98)i × phases × slices/100(cid:99) for i in [1, 100]). 心臓容積全体のサンプルを階層化するために,心臓周期を通じて定期的に間隔をおいて,各スライスからほぼ同数の画像を選択した(画像: (cid:98)i × phases × slices/100(cid:99) for i in [1, 100])。 0.86
This resulted in 10,000 images (100 patients × 100 images per patient). その結果、1万枚の画像(患者100人×患者100人)が得られた。 0.65
Then, an 80-20% holdout group split was performed for development (training + validation) and test. そして、開発(トレーニング+検証)とテストのために80~20%のホールドアウトグループ分割が行われた。 0.71
Afterwards, five smaller datasets were sub-sampled from the bigger dataset (10k), with 200, 500, 1000, 2500, and 5000 images. その後、より大きなデータセット(10k)から5つの小さなデータセットをサブサンプリングし、200、500、1000、2500、5000の画像を得た。
訳抜け防止モード: その後、より大きなデータセット(10k)から5つの小さなデータセットがサンプリングされた。 200, 500, 1000, 2500, 5000の画像です
0.76
For each of those datasets, the development set was sub-sampled from the initial development set with 8000 images, while the test set was sub-sampled from the holdout test set with 2000 images. これらのデータセットに対して、開発セットは8000の画像で初期開発セットからサブサンプリングされ、テストセットは2000画像でホールドアウトテストセットからサブサンプリングされた。 0.83
Both the holdout and the sub-sampling were performed by randomly selecting of patients, such that a given patient had either all of her/his images in one set only. ホルトアウトとサブサンプリングは,患者のランダムな選択によって実施され,患者は1セットに1つの画像のみを全て保持していた。 0.82
In each execution the development set is again split in 5-folds of equal sizes for cross-validation: each fold is taken for validation using a model trained on the remaining four folds. 各実行において、開発セットは、クロスバリデーションのために同じ大きさの5つのフォルダに分割される: 各フォールドは、残りの4つのフォールドでトレーニングされたモデルを使用して検証される。 0.59
Next we present the neural networks, hyper-parameters and linear models and statistical tests. 次に、ニューラルネットワーク、ハイパーパラメータ、線形モデルおよび統計的テストを示す。 0.80
3.2 Neural Networks 3.2 ニューラルネットワーク 0.71
U-Net [Ronneberger et al , 2015] implements the downscaling path similarly to the VGG network [Simonyan and Zisserman, 2014], using a sequence of 2D convolutions, ReLU activations and max-poolings. U-Net [Ronneberger et al , 2015] は、VGGネットワーク (Simonyan and Zisserman, 2014) と同様のダウンスケーリングパスを実装し、2D畳み込み、ReLUアクティベーション、最大プールのシーケンスを使用する。 0.74
We also tested U-Net with modern backbones based on ResNet [He et al , 2016] and EfficientNet [Tan and Le, 2019]. また、ResNet [He et al , 2016]とEfficientNet [Tan and Le, 2019]に基づいて、現代的なバックボーンでU-Netをテストしました。
訳抜け防止モード: We also testing U-Net with modern backbones based on ResNet [He et al, 2016] and EfficientNet [ Tan and Le , 2019 ]
0.85
ResNets divide the pathway in an input identity map path (a short-cut connection), and a residual path, that learns a residual function (which model the residuals from the inputs). resnetsは、経路を入力idマップパス(ショートカット接続)と残差関数(入力から残差をモデル化する)を学習する残差パスに分割する。 0.66
By learning the residuals instead of the main signal, more convolution blocks can be stacked to build deeper neural networks without compromising their training. 主信号の代わりに残差を学習することで、より多くの畳み込みブロックを積み重ねることで、より深いニューラルネットワークを構築することができる。 0.67
EfficientNets are based on mobile inverted bottleneck convolution blocks[Howard et al , 2017] with squeeze–excitation optimization[Hu et al , 2018] and a loss function that balances accuracy and speed, by adjusting network depth, width and resolution hyper-parameters [Tan and Le, 2019, Tan et al , 2019]. efficientnetsはモバイル逆ボトルネック畳み込みブロック[howard et al , 2017]とswish-excitation optimization[hu et al , 2018]と、ネットワークの深さ、幅、解像度のハイパーパラメータ(tan and le, 2019, tan et al , 2019)を調整することで、精度と速度のバランスをとるロス関数に基づいている。 0.72
3 3 0.85
英語(論文から抽出)日本語訳スコア
Study of CNN capacity for LV segmentation in MRI MRIにおけるLVセグメンテーションのためのCNN容量の検討 0.71
ARXIV PREPRINT ARXIV プリプリント 0.67
To study network size we selected small and medium-large sizes for each backbone: EfficientNets B0 and B5; ResNets 18 and 50, with approximately the same numbers of parameters to the chosen EfficientNets; and VGG 16 and 19, the two most common VGG sizes in literature. ネットワークサイズを調べるために、各バックボーンについて、小小サイズと中規模のサイズを選択した: 効率性ネットb0とb5、選択された効率性ネットとほぼ同数のパラメータを持つresnets 18と50、文献において最も一般的なvggサイズであるvgg 16と19。 0.66
EfficientNet B0 has 5.3 million parameters and achieved 76.3% top-one accuracy in the ImageNet classification task, while B5 has 30 million parameters and achieved 83.3% accuracy in that same task. EfficientNet B0は530万のパラメータを持ち、ImageNet分類タスクで76.3%、B5は3000万のパラメータを持ち、同じタスクで83.3%の精度を達成した。 0.76
This is a bigger gain for scaling up than for other families of networks [Tan and Le, 2019]. これは、他のネットワーク(tan and le, 2019)に比べて、スケールアップにおける大きな増加だ。 0.74
Another aspect that impacts performance and convergence of neural networks is the choice of hyper-parameters, presented next. ニューラルネットワークのパフォーマンスと収束に影響を与えるもう1つの側面は、次に提示されるハイパーパラメータの選択である。 0.59
3.3 Hyper-parameter optimization 3.3 ハイパーパラメータ最適化 0.54
Given that training strategies might differ regarding dataset and network size, we also chose to analyse some optimization parameters. トレーニング戦略がデータセットとネットワークサイズによって異なる可能性があることから、最適化パラメータの分析も選択しました。
訳抜け防止モード: トレーニング戦略はデータセットとネットワークサイズによって異なる可能性がある。 最適化パラメータも分析しました
0.83
However, as the time to compute all hyper-parameter space is combinatorial, only some values were selected. しかしながら、すべての超パラメータ空間を計算する時間は組合せ的であるため、いくつかの値のみが選択された。
訳抜け防止モード: しかし、すべてのハイパーパラメータ空間を計算する時間は組合せである。 選ばれたのは 数個の値だけです。
0.63
For each model and dataset combination, we tested different initial learning rates (10−2, 10−3 and 10−4) and different L2 regularization values (10−2, 10−4 and 10−6). 各モデルとデータセットの組み合わせについて、異なる初期学習率(10−2,10−3,10−4)と異なるl2正規化値(10−2,10−4,10−6)をテストした。 0.64
The initial learning rate balances training speed and convergence stability. 初期学習速度は、トレーニング速度と収束安定性のバランスをとる。 0.67
The regularization has a further implication in model capacity, as it balances accuracy and over-fitting by constricting network weights. 正規化は、ネットワークの重みを制約することで精度と過剰フィッティングのバランスをとるため、モデルの容量にさらなる意味を持つ。 0.58
In order to understand the effect of hyper-parameters in combination to dataset and network size, we analyse these variables with linear models, ANOVA and HSD tests of next section. データセットとネットワークサイズの組み合わせによるハイパーパラメータの効果を理解するために,次節の線形モデル,ANOVA,HSDテストを用いてこれらの変数を解析する。 0.83
3.4 Linear Models, ANOVA and HSD 3.4 線形モデル、ANOVAおよびHSD 0.85
To understand the effect of CNN choices on the performance, we develop a linear regression model based on the dataset size, model architecture, model size, and hyper-parameters as input variables. CNN選択が性能に与える影響を理解するため,入力変数としてデータセットサイズ,モデルアーキテクチャ,モデルサイズ,ハイパーパラメータに基づく線形回帰モデルを開発した。 0.85
Linear regression models are statistical approaches to analyse the dependence of a response variable Y on the linear combination of input variables X = x1, x2, ..., xn. 線形回帰モデルは、入力変数 x = x1, x2, ..., xn の線形結合に対する応答変数 y の依存性を分析する統計的アプローチである。 0.85
These models follow the general formula Y = aX + b + , where a corresponds to weights for each variable xi, and b is a bias term (intercept), and  is the error of the model. これらのモデルは一般式 y = ax + b + ] に従うが、ここでは a は各変数 xi の重みに対応し、b はバイアス項 (intercept) であり、s はモデルの誤差である。 0.81
The parameters a and b are commonly adjusted by ordinary least squares regression (OLS). パラメータ a と b は、通常最小二乗回帰(OLS)によって一般に調整される。 0.71
ANOVA for regression models tests the statistical significance of input variables (groups), with respect to the sums of squares (SS) of regressed variables and observed data. 回帰モデルのANOVAは、回帰変数と観測されたデータの平方(SS)の和に関して、入力変数(群)の統計的意義をテストする。 0.77
The HSD test was developed by Tukey for pairwise comparison of multiple group means, and is used as a post hoc adjustment [Tabachnick and Fidell, 2007]. hsdテストはtukeyによって複数グループ平均の対数比較のために開発され、ポストホック調整(tabachnick and fidell, 2007)として使用される。 0.74
Generalized linear models (GLM) extend linear models by applying a link function that transforms the predicted distribution, e g log(Y ) = aX + b → ˆY = exp(aX + b) in the case of log link. 一般化線形モデル (GLM) は、予測分布を変換するリンク関数、eg log(Y) = aX + b → (Y) = exp(aX + b) を適用して線形モデルを拡張する。
訳抜け防止モード: 一般化線形モデル(GLM)は、予測分布を変換するリンク関数を適用して線形モデルを拡張する。 e g log(Y ) = aX + b → shY = exp(aX + b ) は、ログリンクの場合である。
0.90
Generalized additive models (GAM) further extends GLM by applying transformations in each variable, e g g(E[Y ]) = f1(x1) + f2(x2) + ... + fn(xn) + b, and discovering the most appropriate functions fi for each input variable [Hastie and Tibshirani, 1990]. 一般化加法モデル (GAM) はさらに、各変数の変換 e g(E[Y ]) = f1(x1) + f2(x2) + ... + fn(xn) + b を適用して GLM を拡張し、各入力変数 [Hastie and Tibshirani, 1990] に対して最も適切な関数 fi を発見した。 0.89
The linear models are evaluated by Akaike Information Criterion (AIC), according to the maximum likelihood of estimates and number of parameters of the model [Akaike, 1974]. Akaike Information Criterion (AIC) はモデルの推定値とパラメータの最大値に基づいて線形モデルを評価した(Akaike, 1974)。
訳抜け防止モード: 線形モデルは, aic (akaike information criterion) によって評価される。 モデル[赤宅, 1974]の見積の最大可能性とパラメータの数に応じて。
0.80
We tested several linear models and settled our analysis with DICE ∼ ls + ls : F amily + log(Dataset) + log(lr) : ls : F amily + log(reg), which is presented in the next section along experiments, metrics, results and discussion. 我々は,いくつかの線形モデルを検証し,実験,メトリクス,結果,議論とともに次の節で提示されるDICE > ls + ls : F amily + log(Dataset) + log(lr) : ls : F amily + log(reg)を用いて解析を行った。 0.89
4 Experiments In this section we present the experimental configuration (4.1), evaluation metrics (4.2), results (4.3) and discussion (4.4). 4つの実験 本稿では,実験構成(4.1),評価指標(4.2),結果(4.3),議論(4.4)について述べる。 0.74
In Section 4.3 (Results) we present the experimental results, report the DICE index and BCE Loss of all models, compare their differences, and analyse the model’s dependences on the chosen parameters by linear regression models, ANOVA and HSD tests. 第4.3節(結果)では,実験結果を提示し,全モデルのDICE指数とBCE損失を報告し,それらの差を比較し,線形回帰モデル,ANOVA,HSDテストにより選択されたパラメータに対するモデルの依存性を分析する。 0.84
In Section 4.4 (Discussion) we comment our findings in relation to literature and place general considerations. 第4節(議論)では、文献に関する知見をコメントし、一般的な考察を行う。 0.57
4.1 Experimental configuration For each of the 324 different combinations of variables (model, dataset, initial learning rate, L2 regularization), the model was trained from scratch using 5-fold cross-validation. 4.1 実験構成 324種類の変数の組み合わせ(モデル、データセット、初期学習率、L2正規化)に対して、モデルをスクラッチから5倍のクロスバリデーションを用いてトレーニングした。 0.75
The development dataset was divided into 5 equally-sized subsets (folds) and each one is used for validation while the remaining four are used to fit the model. 開発データセットは5つの等サイズのサブセット(フォルダ)に分割され、各サブセットは検証に使用され、残りの4つはモデルに適合する。 0.71
For each fold, every combination of parameters is trained for 50 epochs or less. 各折りたたみについて、各パラメータの組み合わせは50エポック以下でトレーニングされる。 0.73
We stopped training when there was no improvement in the validation loss after 5 epochs (early stopping). 5時間後(早期停止時)に検証損失が改善しなかった場合,トレーニングを中止した。 0.73
This results in 1620 training/evaluation runs, corresponding to 5 folds × 324 different conditions. その結果、1620のトレーニング/評価が実行され、5倍×324の異なる条件に対応する。 0.57
After all runs, we computed the metrics and fitted a linear regression model to the experiment parameters and results, then performed statistical ANOVA and HSD tests to assess significant differences. その結果,実験パラメータと実験結果に線形回帰モデルを適用し,統計的anovaおよびhsd試験を行い,有意な差を評価した。
訳抜け防止モード: 結局、私たちはメトリクスを計算し、実験パラメータと結果に線形回帰モデルを適用しました。 統計的ANOVA検査とHSD検査を行い 重要な違いを評価します
0.80
All experiments were performed in a Foxconn HPC M100-NHI with eight NVIDIA V100-SXM2-16GB GPUs, using the software we implemented with 実験はすべてFoxconnのHPC M100-NHIとNVIDIA V100-SXM2-16GBのGPUで行われた。 0.79
4 4 0.85
英語(論文から抽出)日本語訳スコア
Study of CNN capacity for LV segmentation in MRI MRIにおけるLVセグメンテーションのためのCNN容量の検討 0.71
ARXIV PREPRINT ARXIV プリプリント 0.67
Python, PyDicom, Tensorflow, SegmentationModels, Slurm and StatsModels. Python、PyDicom、Tensorflow、SegmentationModels、Slurm、StatsModels。 0.77
Next we present the evaluation metrics, then results and discussion. 次に評価指標を示し、その結果と議論を行う。 0.75
4.2 Evaluation metrics To evaluate the quality of each model, we use two metrics: BCE (Binary Cross-Entropy) loss and DICE index [Dice, 1945]. 4.2 評価指標 各モデルの品質を評価するために、BCE損失(Binary Cross-Entropy)とDICE指数(Dice, 1945)の2つの指標を用いる。 0.75
These are computed on the validation set of each training run, and also separately on the held-out test set from the corresponding dataset. これらは、各トレーニング実行の検証セットと、対応するデータセットから保持されたテストセットを別々に計算する。 0.79
We then compare all configurations across datasets and models, considering the best hyper-parameters for each configuration. 次に、データセットとモデルにまたがるすべての構成を比較し、各構成の最適なハイパーパラメータを考慮します。 0.63
BCE and DICE formulas are given below: y · log(ˆy) + (1 − y) · log(1 − ˆy) 2T P BCE と DICE の公式は以下の通りである。 y · log ( y) + (1 − y) · log(1 − y) 2T P 0.92
BCE = − 1 N BCE = − 1 N 0.85
(cid:88) DICE = (cid:88) DICE= 0.80
2T P + F P + F N 2T P + F P + F N 0.94
= 2 (cid:80) y · (cid:98)ˆy(cid:101) (cid:80) y + (cid:98)ˆy(cid:101) = 2 (cid:80) y · (cid:98) y(cid:101) (cid:80) y + (cid:98) y(cid:101) 0.82
Where T P, F P, F N are true positives, false positives and false negatives, respectively, N is the number of pixels in the dataset, y are the binary labels for all pixels, ˆy are the corresponding predictions and (cid:98)·(cid:101) denotes rounding. T P, F P, F N が真正値、偽正値、偽負値、N がデータセット内の画素数、y が全てのピクセルのバイナリラベル、y が対応する予測値、(cid:98)·(cid:101) が丸みを表す。 0.68
BCE is a positive value which gives the amount of entropy mismatch in the predictions, the lower the better. BCEは、予測におけるエントロピーミスマッチの量を与える正の値である。
訳抜け防止モード: BCEは正の値です 予測におけるエントロピーのミスマッチの量を与える より低いほど
0.62
DICE range from 0% (no correspondence) to 100% (images are perfectly equal) and is equivalent to F1-score. DICEは0%(対応なし)から100%(イメージは完全に等しい)までの範囲があり、F1スコアに相当する。 0.77
In the next section we present the results of the experiments, our analyses and discussion. 次の節では、実験の結果、分析および議論について述べる。 0.62
4.3 Results All networks performed badly on the smallest dataset (due to insufficient training cases) and improved gradually when fed with more data. 4.3 結果 すべてのネットワークは、(トレーニングケースの不足により)最小のデータセットでパフォーマンスが悪く、より多くのデータを供給すると徐々に改善される。 0.64
The network performed similarly well on the larger datasets (Figure 2). ネットワークは、より大きなデータセットでも同じようにうまく機能した(図2)。 0.69
However, the networks behaved very differently in the middle sizes (between 400 and 2000 samples), both in absolute performance and variability of the metrics. しかし、ネットワークは中規模(400と2000のサンプル)では、絶対的なパフォーマンスとメトリクスの変動の両方において、非常に異なる振る舞いをした。 0.67
Loss function behaved similarly, showing a similar improvement related to increasing dataset size. 損失関数も同様に動作し、データセットサイズの増加に関する同様の改善を示している。 0.67
Although, we opted to focus this report on DICE index because it is easier to interpret, has close relation to the task, and is common in literature. しかし,本報告は,解釈が容易で,課題と密接な関係があり,文献的にも一般的であるため,DICEインデックスに注目することを選んだ。 0.78
After all runs, we fitted a linear regression model (Table 1) to the experiment parameters and results, then performed statistical ANOVA and HSD tests to assess significant differences (Table 2 and Figure 2). その後,実験パラメータと結果に線形回帰モデル(表1)を適用し,統計的anovaおよびhsd試験を行い,有意な差(表2と図2)を評価した。 0.74
The variables F amily, ls, lr and reg correspond to the network architecture family (VGG, ResNet or EfficientNet), model version size (Long or Short, ls), initial learning rate (lr) and L2 regularization parameters (reg), respectively. 変数fは、ネットワークアーキテクチャファミリ(vgg、resnetまたはeffernet)、モデルバージョンサイズ(longまたはshort、ls)、初期学習率(lr)、l2正規化パラメータ(reg)に対応する。
訳抜け防止モード: 変数 f amily, ls, lr, reg はネットワークアーキテクチャファミリー (vgg, resnet, efficientnet ) に対応する。 model version size (long or short, ls )、初期学習率 (lr )。 およびl2正規化パラメータ(reg)。
0.71
The nesting of F amily within model version size (ls/F amily = ls + ls : F amily) in the regression formula is a way to access a rough effect of model size while not treating different architectures (long and short versions) as equivalents. 回帰式におけるモデルバージョンサイズ(ls/F amily = ls + ls : F amily)内のFのネストは、異なるアーキテクチャ(長短バージョン)を等価として扱わずに、モデルサイズの粗い効果にアクセスする方法である。 0.82
We also fitted a linear model with a similar formula and using a log link function instead of the log transformations on predictors: log(DICE) ∼ ls + ls : F amily + Dataset + lr : ls : F amily + reg, but it had a bigger AIC value of -582. また、同様の公式を持つ線形モデルを採用し、予測器上のログ変換の代わりにログリンク関数を使用する: log(dice) s + ls : f amily + dataset + lr : ls : f amily + reg しかし、aic値は -582 である。 0.76
According to the results, the dataset size had overall larger absolute coefficients (Table 1) and more significant effect (Tables 1 and 2) in DICE than architecture, initial learning rates or L2 regularization values in the linear model. その結果, データセットサイズは, 線形モデルにおける初期学習率やL2正規化値よりも総合的に大きな絶対係数(表1)と, DICEにおけるより重要な効果(表1)を有した。 0.86
HSD test was applied to the mean DICE and confidence intervals (Figure 2). hsd試験を平均サイスと信頼区間に適用した(第2図)。 0.69
EfficientNets had consistently higher DICE scores up to 2000 images. EfficientNetsのDICEスコアは2000イメージまで一貫して高かった。 0.81
ResNets and VGGs required more data to achieve a comparable level of performance, but slightly surpassed EfficientNets in the two largest datasets. ResNetsとVGGsは同等のパフォーマンスを達成するためにより多くのデータを必要としたが、2つの大きなデータセットではEfficientNetsをわずかに上回った。 0.64
In the next section we discuss these results in relation to other evidence in literature, and place general considerations. 次の節では、文献上の他の証拠に関連してこれらの結果を議論し、一般的な考察を行う。 0.55
4.4 Discussion Apparently, smaller models (EfficientNet-B0, VGG16 and ResNet18) are not too small for LV segmentation tasks, and were able to achieve good levels of performance when given sufficient data. 4.4 討論 どうやら、小さなモデル(EfficientNet-B0、VGG16、ResNet18)はLVセグメンテーションタスクには小さすぎず、十分なデータを与えると優れたパフォーマンスを達成することができたようだ。 0.61
One could expect that different models would reach different plateaus. 異なるモデルが異なる高原に達すると期待できる。 0.67
But we observed in all families that, as the training dataset size increases, the gain in DICE performance of deeper networks vanishes as the performance of shallower models levels up. しかし、トレーニングデータセットのサイズが大きくなるにつれて、より浅いモデルのパフォーマンスがレベルアップするにつれて、深いネットワークのサイコロのパフォーマンスが低下する、とすべてのファミリーで観察しました。
訳抜け防止モード: しかし、トレーニングデータセットのサイズが大きくなるにつれて、すべての家庭で観察しました。 より浅いモデルの性能が上昇するにつれて、ディープネットワークのDICEパフォーマンスが向上する。
0.62
Considering each network family separately, the network size effect is greater for the EfficientNets than for the ResNets and VGGs (Table 1 coefficients). 各ネットワークファミリーを別々に考えると、ネットワークサイズ効果は、resnetsおよびvggs (table 1 coefficients) よりも効率性が高い。 0.74
As in the case of ImageNet classification, the gain of scaling up is bigger for the EfficientNets than in other families. ImageNetの分類の場合と同様に、EfficientNetsでは他のファミリーよりもスケールアップのメリットが大きい。 0.73
We noticed that in all dataset sizes B5 performed significantly better than B0 (Figure 2), showing that it did not over-fit more easily with the increased number of parameters, even considering that B0 reached comparable performance with more data. すべてのデータセットサイズにおいて、B5はB0(図2)よりも大幅にパフォーマンスが良く(図2)、B0がより多くのデータで同等のパフォーマンスに達したとしても、パラメータの増加に対して過度に適合しないことが示されています。 0.65
These results contradict the common sense that bigger models would suffer more from over-fitting in smaller datasets, decreasing their performance, and that they would gain more performance as more data was made available [Martin and Mahoney, 2018]. これらの結果は、より大きなモデルがより小さなデータセットの過剰フィッティングに苦しめられ、パフォーマンスが低下し、より多くのデータが利用可能になるとパフォーマンスが向上する、という常識と矛盾する(martin and mahoney, 2018)。 0.71
Our findings with EfficientNet support the idea of Neyshabur et al [2019] that bigger models does not EfficientNetによる我々の発見は、大きなモデルではそうでないというNeyshaburらの考えを支持している。
訳抜け防止モード: EfficientNetによる私たちの発見は、Neyshaburらのアイデアを支持しています。 大きなモデルは
0.70
5 5 0.85
英語(論文から抽出)日本語訳スコア
Study of CNN capacity for LV segmentation in MRI MRIにおけるLVセグメンテーションのためのCNN容量の検討 0.71
ARXIV PREPRINT ARXIV プリプリント 0.67
Figure 2: Evaluation of models: the left panel shows DICE index (upper) and BCE Loss (lower) on the test set for all 1,620 network models, in all datasets and all folds. 図2: モデルの評価: 左パネルは、すべてのデータセットとすべてのフォルダで、1,620のネットワークモデルのテストセットに、DICEインデックス(上)とBCEロス(下)を示しています。 0.81
Each dataset (x-axis) contains six medians and IQRs for B0, B5, R18, R50, V16 and V19, respectively, corresponding to EfficientNets B0 and B5, ResNets 18 and 50 and VGGs 16 and 19. 各データセット(x軸)は、b0、b5、r18、r50、v16、v19の6つの中央値とiqrsを含み、それぞれb0、b5、resnets18、50、vggs16、19に対応する。
訳抜け防止モード: 各データセット(x軸)は6つの中央値とB0のIPCを含む。 B5,R18,R50,V16,V19。 EfficientNets B0, B5, ResNets 18, 50に対応する およびVGGs 16および19。
0.77
All networks performed worse in the smaller datasets and similarly well on the larger datasets. すべてのネットワークは、より小さなデータセットでも、さらに大きなデータセットでもうまく動作します。 0.63
We observe mixed results with a gradual performance increase in the middle ground between 400 and 4,000 images. 中間地盤における400~4,000画像の漸進的性能向上による混合結果の観察を行った。 0.73
The right panel shows Mean DICE scores across datasets and models. 右のパネルはデータセットやモデルの平均サイコロスコアを表示する。 0.60
The error bars are 95% confidence intervals calculated using HSD test. 誤差バーは、HSDテストを用いて計算された95%信頼区間である。 0.64
The results of all models are directly comparable, and overlapping intervals should be interpreted as the corresponding null hypothesis (no statistical difference). すべてのモデルの結果は直接比較され、重なり合う間隔は対応するヌル仮説として解釈されるべきである(統計的な差はない)。 0.75
necessarily over-fit, but this pattern does not hold for other families. しかし、このパターンは他の家族には当てはまらない。 0.60
Considering the ResNets, the deeper ResNet50 starts with a DICE performance below the shallow counterpart (ResNet18), but improved faster and caught up with 4000 samples. ResNetsを考えると、より深いResNet50は、浅い(ResNet18)よりも低いDICEパフォーマンスで始まるが、より高速に改善され、4000のサンプルに追いつく。 0.78
We observed that VGGs never differed significantly, probably because of their smaller differences in depth and number of parameters, and they also have high sensitivity to hyper-parameters. また, VGGsは, 深度とパラメータ数の差が小さいことや, 過度パラメータに対する感度が高いことなどから, 有意差は認められなかった。 0.83
VGG16 had a particular tipping point from the worst results in the 800 images dataset to scoring near the top contenders on the next dataset with 2000 images. VGG16は、800の画像データセットの最悪の結果から、2000画像の次のデータセットの上位候補の近くまで、特別な転換点を持っていた。 0.64
A general consideration in the intermediate dataset sizes is that all models were relatively more sensitive to hyperparameters than to architecture, as their performances had higher variance than when more data was made available. 中間データセットのサイズにおける一般的な考慮事項は、すべてのモデルがアーキテクチャよりもハイパーパラメータに対して相対的に敏感であったことである。 0.75
This might affect sample size and model choice, as with 2000 images EfficientNet B5 performed significantly better than the ones from other families, but with 8000 images all models had no practical difference. 2000年の画像では、EfficientNet B5は他の家族のものよりもはるかに優れているが、8000の画像では、すべてのモデルに実用的な違いはなかった。 0.76
Thus, in scenarios where bigger datasets are unavailable and acquisition is costly, it might be possible to use smaller data samples with deeper networks and careful optimization. したがって、より大きなデータセットが利用できなくなり、買収コストがかかるシナリオでは、より深いネットワークと注意深く最適化された小さなデータサンプルを使用することが可能である。 0.66
When a bigger dataset size is available, neither model selection or optimization provides much performance gain, different approaches such as changing pre-processing or loss function might be required. データセットのサイズが大きくなると、モデルの選択も最適化もパフォーマンス向上には至らず、前処理や損失関数の変更といったさまざまなアプローチが必要になる可能性がある。 0.68
However, as in the demonstrated case, any method should be tested in a range of training dataset sizes in order to guarantee its performance. しかし、実証例のように、あらゆるメソッドは、そのパフォーマンスを保証するために、トレーニングデータセットサイズの範囲でテストされるべきである。 0.68
In the next section we conclude this paper, summarizing our goals, experiments, results and future investigations. 次の節では、私たちの目標、実験、結果、今後の調査をまとめて結論付けます。 0.61
6 6 0.85
英語(論文から抽出)日本語訳スコア
Study of CNN capacity for LV segmentation in MRI MRIにおけるLVセグメンテーションのためのCNN容量の検討 0.71
ARXIV PREPRINT ARXIV プリプリント 0.67
Figure 3: Predictions of DICE index for each model in each dataset size given by the linear regression model (large X marks connected with lines), and the observed values for the corresponding DICE data (small +, x and arrow marks). 図3: 線形回帰モデル(ラインに接続された大きなXマーク)によって与えられる各データセットサイズ毎のモデル毎のDICE指数の予測と、対応するDICEデータ(小 +, x および矢印)の観測値。 0.84
Term z p-value Intercept 0.0000 0.9686 ls[T.short] 0.0189 ls[long] : F amily[T.ResN et] 0.0055 ls[short] : F amily[T.ResN et] 0.0000 ls[long] : F amily[T.V GG] 0.0000 ls[short] : F amily[T.V GG] 0.0000 log(Dataset) 0.0001 log(lr) : ls[long] : F amily 0.0000 log(lr) : ls[short] : F amily[Ef f icientN et] 0.0010 log(lr) : ls[long] : F amily[ResN et] 0.0049 log(lr) : ls[short] : F amily[ResN et] 0.0000 log(lr) : ls[long] : F amily[V GG] 0.0000 log(lr) : ls[short] : F amily[V GG] 0.7021 log(reg) Model: DICE ∼ ls + ls : F amily + log(Dataset) + log(lr) : ls : F amily + log(reg) Term z p-value Intercept 0.0000 0.9686 ls[T.short] 0.0189 ls[long] : F amily[T.ResN et] 0.0055 ls[short] : F amily[T.ResN et] 0.0000 ls[long] : F amily[T.V GG] 0.0000 ls[short] : F amily[T.V GG] 0.0000 log(Dataset) 0.0001 log(lr) : ls[long] : F amily 0.0000 log(lr) : ls[short] : F amily[Ef f icientN et] 0.0010 log(lr) : ls[long] : F amily[ResN et] 0.0049 log(lr) : ls[short] : F amily[ResN et] 0.0000 log(lr) : ls[long] : F amily[V GG] 0.0000 log(lr) : ls[short] : F amily[V GG] 0.7021 log(reg) Model: DICE ∼ ls + ls : F amily + log(Dataset) + log(lr) : ls : F amily + log(reg) 0.98
-178.383 0.039 -23.476 -27.771 -97.863 -81.173 787.068 40.202 49.085 32.955 28.156 -71.467 -49.051 -0.383 -178.383 0.039 -23.476 -27.771 -97.863 -81.173 787.068 40.202 49.085 32.955 28.156 -71.467 -49.051 -0.383 0.35
coef. -0.5810 0.0016 -0.0936 -0.1107 -0.3903 -0.3237 0.1627 0.0158 0.0193 0.0130 0.0111 -0.0281 -0.0193 -0.0003 コーフ -0.5810 0.0016 -0.0936 -0.1107 -0.3903 -0.3237 0.1627 0.0158 0.0193 0.0130 0.0111 -0.0281 -0.0193 -0.0003 0.34
Table 1: Coefficients and p-values for the linear model, with AIC: -2213. 表1: aic: -2213の線形モデルに対する係数とp値。 0.75
5 Conclusion In this work we described a framework to check when the choice for the network to be used in an application might change due to the number of images available in a training dataset. 5 結論 この作業では、トレーニングデータセットで利用可能な画像の数によって、アプリケーションで使用するネットワークの選択がいつ変わるかをチェックするためのフレームワークを説明しました。 0.78
We demonstrated an application of this framework for LV segmentation in cardiac MRI images using the LSVC dataset. LSVCデータセットを用いた心臓MRI画像におけるLVセグメンテーションへの本フレームワークの適用を実証した。 0.81
In our experiments we observed the relationship between prediction error, dataset size and network size; and also identified hyper-parameter effects on network performance, by modelling with linear model DICE ∼ ls + ls : F amily + log(Dataset) + log(lr) : ls : F amily + log(reg) and executing and ANOVA of its interaction terms. 実験では,予測誤差,データセットサイズ,ネットワークサイズとの関係を観察し,線形モデル dice ls + ls : f amily + log(dataset) + log(lr) : ls : f amily + log(reg) を用いてハイパーパラメータがネットワーク性能に与える影響を同定し,その相互作用項の実行とアナバを明らかにした。 0.88
The results indicated that: sample size affected performance more than architecture or hyper-parameters; in small samples the performance was more sensitive to hyper-parameters than architecture; the performance difference between shallow and deeper networks was not the same across families. サンプルサイズは、アーキテクチャやハイパーパラメータよりもパフォーマンスに影響を与え、小さなサンプルでは、パフォーマンスはアーキテクチャよりもハイパーパラメータに敏感であった。
訳抜け防止モード: その結果,以下のことが明らかとなった。 サンプルサイズはアーキテクチャやハイパーパラメータよりもパフォーマンスに影響した 小さなサンプルでは、パフォーマンスはアーキテクチャよりもハイパーパラメータに敏感でした。 浅層ネットワークと深層ネットワークのパフォーマンス差は 家族間では違っていました
0.75
Further investigation and extension of these experiments will focus on analysing the regularization effects’ patterns regarding network size. これらの実験のさらなる調査と拡張は、ネットワークサイズに関する正規化効果のパターンの分析に焦点を当てる。 0.78
Also, we plan to use similar strategies in Neural Architecture Search (NAS) and Automatic Deep Learning (AutoDL) to discover better segmentation networks for evolving and multi-centric medical imaging datasets. また,ニューラルネットワーク検索 (nas) や自動ディープラーニング (autodl) にも同様の戦略を用いて,進化的かつ多中心の医療画像データセットのためのセグメント化ネットワークを見出す計画である。 0.71
7 7 0.85
英語(論文から抽出)日本語訳スコア
Study of CNN capacity for LV segmentation in MRI MRIにおけるLVセグメンテーションのためのCNN容量の検討 0.71
ARXIV PREPRINT ARXIV プリプリント 0.67
Term ls ls : F amily log(Dataset) log(lr) : ls : F amily log(reg) Residuals 用語 ls ls : F Amily log(Dataset) log(lr) : ls : F Amily log(reg) Residuals 0.78
SS 0.0145 1.7284 91.7177 1.9866 0.0022 23.7779 SS 0.0145 1.7284 91.7177 1.9866 0.0022 23.7779 0.47
η2 p 0.9802 29.1844 6194.7601 22.3631 0.1463Table 2: ANOVA table for linear model variables and their interaction. η2 p 0.9802 29.1844 6194.7601 22.3631 0.1463table 2: anova table for linear model variable and their interaction。 0.76
η2 p is the effect size, measuring the proportion of SS explained by each term, while Residuals measure the unknown SS. η2 p は効果の大きさであり、各項で説明される SS の割合を測り、残基は未知の SS を測る。 0.74
The terms ls : F amily, log(Dataset) and log(lr) : ls : F amily are responsible for 80% of DICE index variance in the trained models. ls : F amily, log(Dataset) and log(lr) : Ls : F amilyは訓練されたモデルにおけるDICE指数の80%を担っている。 0.78
We observe that gross performance increment comes from larger datasets, while learning rates and network size give small but significant increments depending on the network architecture (F amily). 学習速度とネットワークサイズは,ネットワークアーキテクチャによって小さいが重要な増加をもたらす(Fは良好)。
訳抜け防止モード: 私たちは、総パフォーマンスの増減は、より大きなデータセットから来るのを観察します。 学習率とネットワークサイズは、ネットワークアーキテクチャによって小さいが重要なインクリメントを与える(family )。
0.65
0.0001 0.0145 0.7693 0.0167 0.0000 0.1994 0.0001 0.0145 0.7693 0.0167 0.0000 0.1994 0.43
F p-value 0.3223 <10−22 <10−30 <10−24 0.7021 - F p-値 0.3223 <10−22 <10−30 <10−24 0.7021 0.61
References H. Akaike. H.Akaikeを参照。 0.62
A new look at the statistical model identification. 統計モデル識別の新しい視点。 0.55
IEEE transactions on automatic control, 19(6):716–723, IEEEによる自動制御のトランザクション 19(6):716–723, 0.84
1974. Y. F. A. Aziz, F. Fadzli, R. Rizal Azman, F. Mohamed Sani, A. Vijayananthan, and M. Nazri. 1974. Y.F. A. Aziz、F. Fadzli、R. Rizal Azman、F. Mohamed Sani、A. Vijayananthan、M. Nazri。 0.84
State of the heart: Cmr in 心臓の状態:cmr in 0.61
coronary artery disease. Current Medical Imaging, 9(3):201–213, 2013. 冠動脈疾患。 現在の医療画像, 9(3):201-213, 2013 0.80
P. L. Bartlett, D. J. P・L・バートレット、D・J。 0.58
Foster, and M. Telgarsky. フォスター、M.テルガースキー。 0.43
Spectrally-normalize d margin bounds for neural networks. ニューラルネットワークのスペクトル正規化マージン境界 0.72
In Proceedings of the 31st International Conference on Neural Information Processing Systems, pages 6241–6250, 2017. 手続き中 第31回神経情報処理システム国際会議、6241-6250頁、2017年。 0.68
D. J. Benkendorf and C. P. Hawkins. D・J・ベンケンドルフとC・P・ホーキンス。 0.50
Effects of sample size and network depth on a deep learning approach to species 種へのディープラーニングアプローチにおけるサンプルサイズとネットワーク深さの影響 0.82
distribution modeling. Ecological Informatics, 60:101137, 2020. 流通モデル。 Ecological Informatics, 60:101137, 2020 0.74
A. Chaurasia and E. Culurciello. A. ChaurasiaとE. Culurciello。 0.83
Linknet: Exploiting encoder representations for efficient semantic segmentation. Linknet: 効率的なセマンティックセグメンテーションのためのエンコーダ表現のエクスプロイト。 0.69
In 2017 IEEE Visual Communications and Image Processing (VCIP), pages 1–4. 院 2017 IEEE Visual Communications and Image Processing (VCIP) 1-4ページ。 0.64
IEEE, 2017. 2017年、IEEE。 0.63
C. Chen, C. Qin, H. Qiu, G. Tarroni, J. Duan, W. Bai, and D. Rueckert. C. Chen, C. Qin, H. Qiu, G. Tarroni, J. Duan, W. Bai, D. Rueckert 0.93
Deep learning for cardiac image segmentation: 心画像分割のための深層学習 0.73
A review. Frontiers in Cardiovascular Medicine, 7:25, 2020. レビュー。 心臓血管医学のフロンティア、2020年7:25。 0.60
L. R. Dice. Measures of the amount of ecologic association between species. L・R・ディース。 種間の生態学的関係の定量化。 0.58
Ecology, 26(3):297–302, 1945. Ecology, 26(3):297–302, 1945。 0.88
N. Ghavami, Y. Hu, E. Gibson, E. Bonmati, M. Emberton, C. M. Moore, and D. C. Barratt. N. Ghavami, Y. Hu, E. Gibson, E. Bonmati, M. Emberton, C. M. Moore, D. C. Barratt 0.90
Automatic segmentation of prostate mri using convolutional neural networks: Investigating the impact of network architecture on the accuracy of volume measurement and mri-ultrasound registration. 畳み込みニューラルネットワークを用いた前立腺mriの自動セグメンテーション : 音量計測とmri-ultrasound registrationの精度に及ぼすネットワークアーキテクチャの影響の検討 0.85
Medical image analysis, 58:101558, 2019. 医用画像解析, 58:101558, 2019。 0.84
T. J. Hastie and R. J. Tibshirani. T. J. HastieとR. J. Tibshirani。 0.76
Generalized additive models, volume 43. 一般化加法モデル、43巻。 0.54
CRC press, 1990. crc社、1990年。 0.71
K. He, X. Zhang, S. Ren, and J. K. He, X. Zhang, S. Ren, J。 0.87
Sun. Deep residual learning for image recognition. Sun 画像認識のための深い残差学習 0.67
In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 770–778, 2016. IEEEの成果 コンピュータビジョンとパターン認識に関する会議、2016年770-778頁。 0.66
A. G. Howard, M. Zhu, B. Chen, D. Kalenichenko, W. Wang, T. Weyand, M. Andreetto, and H. Adam. A.G. Howard、M. Zhu、B. Chen、D. Kalenichenko、W. Wang、T. Weyand、M. Andreetto、H. Adam。 0.80
Mobilenets: Mobilenets 0.48
Efficient convolutional neural networks for mobile vision applications. モバイルビジョン応用のための効率的な畳み込みニューラルネットワーク 0.71
arXiv preprint arXiv:1704.04861, 2017. arXiv preprint arXiv:1704.04861, 2017 0.79
J. Hu, L. Shen, and G. Sun. J. Hu、L. Shen、G. Sun。 0.87
Squeeze-and-excitati on networks. Squeeze-and-Excitati on Network。 0.49
In Proceedings of the IEEE conference on computer IEEE Conference on Computer に参加して 0.79
vision and pattern recognition, pages 7132–7141, 2018. 視覚とパターン認識, 7132-7141, 2018。 0.68
T.-Y. Lin, P. Dollár, R. Girshick, K. He, B. Hariharan, and S. Belongie. T-Y。 Lin, P. Dollár, R. Girshick, K. He, B. Hariharan, S. Belongie 0.77
Feature pyramid networks for object detection. 物体検出のための特徴ピラミッドネットワーク 0.81
In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 2117–2125, 2017. Proceedings of the IEEE conference on computer vision and pattern recognition, page 2117–2125, 2017 0.80
C. H. Martin and M. W. Mahoney. c・h・マーティンとm・w・マホニー 0.59
Rethinking generalization requires revisiting old ideas: statistical mechanics 一般化の再考には古いアイデアの再検討が必要です:統計力学 0.46
approaches and complex learning behavior. アプローチと複雑な学習行動。 0.76
2018. B. Neyshabur, Z. Li, S. Bhojanapalli, Y. LeCun, and N. Srebro. 2018. B. Neyshabur, Z. Li, S. Bhojanapalli, Y. LeCun, N. Srebro 0.91
Towards understanding the role of over-parametrization オーバーパラメータの役割理解に向けて 0.74
in generalization of neural networks. ニューラルネットワークの一般化です 0.65
In International Conference on Learning Representations (ICLR), 2019. 2019年、iclr(international conference on learning representations)を開催。 0.72
S. Nikolov, S. Blackwell, R. Mendes, J. S. Nikolov, S. Blackwell, R. Mendes, J。 0.91
De Fauw, C. Meyer, C. Hughes, H. Askham, B. Romera-Paredes, A. Karthikesalingam, C. Chu, et al Deep learning to achieve clinically applicable segmentation of head and neck anatomy for radiotherapy. De Fauw, C. Meyer, C. Hughes, H. Askham, B. Romera-Paredes, A. Karthikesalingam, C. Chu, et al Deep Learning は、放射線治療のために臨床応用された頭頸部解剖の分類を行う。 0.74
arXiv preprint arXiv:1809.04430, 2018. arXiv preprint arXiv:1809.04430, 2018 0.78
O. Oktay, J. Schlemper, L. L. Folgoc, M. Lee, M. Heinrich, K. Misawa, K. Mori, S. McDonagh, N. Y. Hammerla, B. Kainz, et al Attention u-net: Learning where to look for the pancreas. O. Oktay, J. Schlemper, L. L. Folgoc, M. Lee, M. Heinrich, K. Misawa, K. Mori, S. McDonagh, N. Y. Hammerla, B. Kainz, et al Attention u-net: 膵臓を探す場所を学ぶこと。 0.86
arXiv preprint arXiv:1804.03999, 2018. arXiv preprint arXiv:1804.03999, 2018 0.79
O. Ronneberger, P. Fischer, and T. Brox. O. Ronneberger、P. Fischer、T. Brox。 0.89
U-net: Convolutional networks for biomedical image segmentation. U-net: バイオメディカルイメージセグメンテーションのための畳み込みネットワーク。 0.78
In International Conference on Medical image computing and computer-assisted intervention, pages 234–241. International Conference on Medical Image Computing and computer-assisted intervention, pages 234–241。 0.92
Springer, 2015. 8 2015年、春。 8 0.71
英語(論文から抽出)日本語訳スコア
Study of CNN capacity for LV segmentation in MRI MRIにおけるLVセグメンテーションのためのCNN容量の検討 0.71
ARXIV PREPRINT ARXIV プリプリント 0.67
S. Shahinfar, P. Meek, and G. Falzon. S. Shahinfar、P. Meek、G. Falzon。 0.88
“how many images do i need?” understanding how sample size per class affects deep learning model performance metrics for balanced designs in autonomous wildlife monitoring. 1クラスあたりのサンプルサイズが、自律野生生物モニタリングにおけるバランスのとれた設計のためのディープラーニングモデルのパフォーマンス指標にどのように影響するかを理解する。
訳抜け防止モード: 必要な画像はいくつ? クラスごとのサンプルサイズが、自律的な野生生物モニタリングにおけるバランスのとれた設計のためのディープラーニングモデルパフォーマンスメトリクスにどのように影響するかを理解する。
0.65
Ecological Informatics, 57:101085, 2020. Ecological Informatics, 57:101085, 2020。 0.90
K. Simonyan and A. Zisserman. k. simonyanとa. zisserman。 0.73
Very deep convolutional networks for large-scale image recognition. 大規模画像認識のための深層畳み込みネットワーク 0.78
arXiv preprint arXiv プレプリント 0.83
arXiv:1409.1556, 2014. 2014年、arxiv:1409.1556。 0.41
J. H. Spencer, J. L. Quill, M. G. Bateman, M. D. Eggen, S. A. Howard, R. P. Goff, B. T. Howard, S. G. Quallich, and P. A. Iaizzo. J. H. Spencer, J. L. Quill, M. G. Bateman, M. D. Eggen, S. A. Howard, R. P. Goff, B. T. Howard, S. G. Quallich, P. A. Iaizzo 0.82
The benefits of the atlas of human cardiac anatomy website for the design of cardiac devices. atlas of human heart anatomy website for the design of heart devicesのメリット。 0.64
Expert Review of Medical Devices, 10(6):729–734, 2013. doi:10.1586/17434440 .2013.843449. Expert Review of Medical Devices, 10(6):729–734, 2013 doi:10.1586/17434440 .2013.843449。 0.63
B. G. Tabachnick and L. S. Fidell. b. g. tabachnickとl. s. fidell。 0.55
Experimental designs using ANOVA. ANOVAを用いた実験設計。 0.80
Thomson/Brooks/Cole Belmont, CA, 2007. トムソン/ブルックス/コール・ベルモント、2007年。 0.45
In International M. Tan and Q. インターナショナル m. tan と q. 0.67
Le. Efficientnet: Rethinking model scaling for convolutional neural networks. ル。 Efficientnet: 畳み込みニューラルネットワークのモデルスケーリングを再考する。 0.73
Conference on Machine Learning, pages 6105–6114. 機械学習会議、6105-6114頁。 0.76
PMLR, 2019. 2019年、PMLR。 0.72
M. Tan, B. Chen, R. Pang, V. Vasudevan, M. Sandler, A. Howard, and Q. V. Le. M. Tan, B. Chen, R. Pang, V. Vasudevan, M. Sandler, A. Howard, Q. V. Le 0.92
Mnasnet: Platform-aware neural architecture search for mobile. Mnasnet: モバイル用のプラットフォーム対応ニューラルアーキテクチャ検索。 0.74
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 2820–2828, 2019. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 2820–2828, 2019。 0.93
H. Zhao, J. Shi, X. Qi, X. Wang, and J. Jia. H.Zhao、J.Shi、X.Qi、X.Wang、J.Jia。 0.72
Pyramid scene parsing network. ピラミッドシーン解析ネットワーク。 0.60
In Proceedings of the IEEE conference on IEEEカンファレンスの開催にあたって 0.71
computer vision and pattern recognition, pages 2881–2890, 2017. コンピュータビジョンとパターン認識』2881-2890頁、2017年。 0.75
Z. Zhou, M. M. R. Siddiquee, N. Tajbakhsh, and J. Liang. Z. Zhou, M. M. R. Siddiquee, N. Tajbakhsh, J. Liang 0.88
Unet++: A nested u-net architecture for medical image segmentation. Unet++: 医療画像セグメンテーションのためのネストされたu-netアーキテクチャ。 0.51
In Deep learning in medical image analysis and multimodal learning for clinical decision support, pages 3–11. 医学画像解析とマルチモーダル学習における臨床判断支援の深層学習は3-11ページである。 0.79
Springer, 2018. 2018年、スプリンガー。 0.51
9 9 0.85
                   ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。