論文の概要、ライセンス

# (参考訳) 医用画像分類における再考伝達学習 [全文訳有]

Rethink Transfer Learning in Medical Image Classification ( http://arxiv.org/abs/2106.05152v2 )

ライセンス: CC BY 4.0
Le Peng, Hengyue Liang, Taihui Li, Ju Sun(参考訳) 深層畳み込みニューラルネットワーク(DCNN)を用いた伝達学習(TL)は医用画像分類(MIC)において成功している。 MICは一般的にDCNNの下位層で学習される低層および中層機能にのみ依存するため、現在のプラクティスは混乱している。 この直感に従うと、MICにおけるTLの現在の戦略を疑問視する。 本稿では,異なるtl戦略を用いて,胸部x線データ集合の分類のための浅層と深層ネットワークの実験的比較を行った。 私たちは、ディープモデルは必ずしも好ましくないことに気付き、微調整されたディープモデルは、特にデータ貧弱な状況において、ほとんどの場合、最高のパフォーマンスを得る。 プロジェクトWebページ:https://sun-umn.git hub.io/Transfer-Lear ning-in-Medical-Imag ing/キーワード:転送学習、医用画像分類、特徴階層、医用画像、評価指標、不均衡データ

Transfer learning (TL) with deep convolutional neural networks (DCNNs) has proved successful in medical image classification (MIC). However, the current practice is puzzling, as MIC typically relies only on low- and/or mid-level features that are learned in the bottom layers of DCNNs. Following this intuition, we question the current strategies of TL in MIC. In this paper, we perform careful experimental comparisons between shallow and deep networks for classification on two chest x-ray datasets, using different TL strategies. We find that deep models are not always favorable, and finetuning truncated deep models almost always yields the best performance, especially in data-poor regimes. Project webpage: https://sun-umn.gith ub.io/Transfer-Learn ing-in-Medical-Imagi ng/ Keywords: Transfer learning, Medical image classification, Feature hierarchy, Medical imaging, Evaluation metrics, Imbalanced data
公開日: Thu, 10 Jun 2021 16:40:18 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
0 1 ] V 0 1 ] V 0.85
I . s s e e [ 私は。 s s e [ 0.71
2 v 2 5 1 5 0 2 v 2 5 1 5 0 0.85
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Rethink Transfer Learning in Medical Image 医用画像における再考伝達学習 0.79
Classification Le Peng1, Hengyue Liang2, Taihui Li1, and Ju Sun1 分類 Le Peng1, Hengyue Liang2, Taihui Li1, Ju Sun1 0.85
1 Department of Computer Science and Engineering, University of Minnesota, USA 2 Department of Electrical and Computer Engineering, University of Minnesota, USA ミネソタ大学コンピュータサイエンス工学科、米国ミネソタ大学電気コンピュータ工学科、米国ミネソタ大学コンピュータ工学科 0.51
{peng0347, liang656, lixx5027, jusun}@umn.edu {peng0347, liang656, lixx5027, jusun}@umn.edu 0.83
Abstract. Transfer learning (TL) with deep convolutional neural networks (DCNNs) has proved successful in medical image classification (MIC). 抽象。 深層畳み込みニューラルネットワーク(DCNN)を用いた伝達学習(TL)は医用画像分類(MIC)において成功している。 0.77
However, the current practice is puzzling, as MIC typically relies only on low- and/or mid-level features that are learned in the bottom layers of DCNNs. MICは一般的にDCNNの下位層で学習される低層および中層機能にのみ依存するため、現在のプラクティスは混乱している。 0.74
Following this intuition, we question the current strategies of TL in MIC. この直感に従うと、MICにおけるTLの現在の戦略を疑問視する。 0.63
In this paper, we perform careful experimental comparisons between shallow and deep networks for classification on two chest x-ray datasets, using different TL strategies. 本稿では,異なるtl戦略を用いて,胸部x線データ集合の分類のための浅層と深層ネットワークの実験的比較を行った。 0.81
We find that deep models are not always favorable, and finetuning truncated deep models almost always yields the best performance, especially in data-poor regimes. 私たちは、ディープモデルは必ずしも好ましくないことに気付き、微調整されたディープモデルは、特にデータ貧弱な状況において、ほとんどの場合、最高のパフォーマンスを得る。
訳抜け防止モード: 深いモデルは必ずしも好ましくないのです。 そして、微調整された深層モデルはほとんど常に最高のパフォーマンスをもたらします。
0.65
Keywords: Transfer learning · Medical image classification · Feature hierarchy · Medical imaging · Evaluation metrics · Imbalanced data キーワード:転送学習・医療画像分類・特徴階層・医療画像・評価指標・不均衡データ 0.76
1 Introduction Transfer learning (TL) has become the norm for medical image classification (MIC) and segmentation using deep learning. 1 はじめに 伝達学習(TL)は、深層学習を用いた医用画像分類(MIC)とセグメンテーションの標準となっている。 0.73
In these tasks, deep convolutional neural networks (DCNNs) pretrained on large-scale source tasks (e g , image classification on ImageNet [5] and 3D medical segmentation and classification [4]) are often adopted and fine-tuned as backbone models for the target tasks; see [23,23,25,1,10,2,6,12 ] for successes. これらのタスクでは、大規模なソースタスク(例えば、ImageNet[5]の画像分類と3D医療セグメンテーションと分類[4])で事前訓練されたディープ畳み込みニューラルネットワーク(DCNN)がしばしば採用され、ターゲットタスクのバックボーンモデルとして微調整される。 0.76
The key of TL is feature reuse across the source and target tasks, which leads to practical benefits such as fast convergence in training, and good performance even if the training data in the target task are limited [28]. tlの鍵は、ソースとターゲットタスク間の機能再利用であり、トレーニングの収束の速さや、ターゲットタスクのトレーニングデータが制限されたとしても優れたパフォーマンスといった実用的なメリットをもたらす [28]。 0.76
Pretrained DCNNs extract increasingly more complex visual features, from low-level textures and edges learned at bottom layers, to high-level shapes and patterns learned at top layers [29]—the latter are crucial for object recognition and segmentation (see Fig. 事前訓練されたdcnnは、ボトム層で学んだ低レベルのテクスチャやエッジから、トップ層[29]で学んだハイレベルな形状やパターンまで、ますます複雑な視覚特徴を抽出します。
訳抜け防止モード: トレーニング済みDCNNは低レベルテクスチャからより複雑な視覚特徴を抽出する そして、下層で学んだエッジから、上層で学んだ高レベルな形状とパターンまで、後者はオブジェクト認識とセグメンテーションに不可欠です。 Figを参照。
0.72
1 (left)). However, medical pathologies often take the form of abnormal textures or blobs, which correspond to low-level and/or at most mid-level visual features (see Fig 1 (right)). 1(左)。 しかしながら、医学的な病理学は、しばしば異常なテクスチャやブロブの形をとり、低レベルまたは中レベルの視覚特徴に対応する(図1(右)を参照)。 0.70
So, intuitively, for most medical imaging tasks, we only need to finetune a reasonable number of bottom layers and do not need the top layers. 直感的には、ほとんどの医療イメージングタスクでは、適切な数のボトム層を微調整するだけで、トップ層は必要ありません。 0.70
Puzzlingly, the current common practice goes against this intuition: in most medical imaging tasks, all layers of pretrained DCNNs are retained and transferred. ほとんどの医療イメージングタスクでは、事前訓練されたDCNNのすべてのレイヤが保持され、転送されます。
訳抜け防止モード: 現在の一般的な慣行はこの直観に反するものです 医用画像診断課題では, 予め訓練されたdcnnの全ての層が保持され, 転送される。
0.60
It is thus natural to ask how to bridge the gap between our intuition 直感のギャップをいかに橋渡しするかを問うのは自然です 0.51
英語(論文から抽出)日本語訳スコア
2 Le Peng, Hengyue Liang, Taihui Li, and Ju Sun 2 Le Peng, Hengyue Liang, Taihui Li, Ju Sun 0.80
Fig. 1. (left) The feature hierarchy learned by typical DCNNs on computer vision datasets; (right) Examples of medical pathologies in a chest x-ray. フィギュア。 1. (左)コンピュータビジョンデータセット上の典型的なDCNNによって学習された特徴階層;(右)胸部X線における医学的病態の例。 0.69
While high-level shapes and patterns are needed to identify the dog on the left, only low-level textures and/or mid-level blobs are necessary for detecting the medical pathologies on the right. 左の犬を識別するためには、高レベルの形状やパターンが必要であるが、右側の病態を検出するためには、低レベルのテクスチャや中位のブロブのみが必要である。 0.64
(the left visualized features adapted from [29]; the right chest x-ray adapted from [17]). (左のヴィジュアライズされた特徴は[29]から、右の胸部X線は[17]から適応)。 0.68
and the practice, and whether the full-transfer strategy is the best possible for MIC. そして、その実践と、フルトランスファー戦略がMICにとって最善の方法であるかどうか。 0.63
The pioneering work [18] partially addresses this on MIC (chest x-ray classification and diabetic retinopathy detection), and empirically shows that in terms of classification performance, i) shallow models can perform on par with deep models, and ii) finetuning deep and shallow models from pretrained weights is no better than training from scratch. 先駆的な研究[18]は、mic(胸部x線分類と糖尿病網膜症検出)に部分的に対処し、分類性能の観点からは、i)浅いモデルは深層モデルと同等に動作できること、ii)事前訓練された重みから深層モデルと浅層モデルの微調整は、スクラッチからトレーニングする以上のものではないことを実証的に示している。 0.68
However, there are serious limitations in their experimentation: 1) Poor evaluation metric. しかしながら、実験には重大な制限がある。 0.38
In their tasks, the validation sets have much smaller positive:negative ratios than 1,3 i.e., are highly imbalanced, and the standard AUC (i.e., area-under-ROC, AUROC) metric that they use is well known to be a poor indicator of performance in such scenarios; see Section 2 and [15,21] and Section 5.1 of [16]; 2) Abundant training data. 彼らのタスクでは、検証セットは1,3よりはるかに小さい:すなわち、負の比率は高い不均衡であり、それらが使用する標準のAUC(つまり、エリアアンダーROC、AUROC)メトリックは、これらのシナリオにおけるパフォーマンスの指標としてよく知られており、第2節および[15,21]および[16]の第5.1節を参照してください。
訳抜け防止モード: 彼らのタスクでは、検証セットはより小さく、負の比が1,3より大きい。 そして標準AUC(つまり、エリア-アンダー-ROC) 彼らが使用する計量はよく知られている。 このようなシナリオにおけるパフォーマンスの指標として 第2節及び [1521 ]及び [16 ] の 5.1 参照; 2 ) 冗長なトレーニングデータ。
0.77
They focus on two data-rich tasks—each class has at least thousands of training data points, but most medical problems suffer from scarcity of data, when TL could have a unique performance edge [23,20,14,13]; and 3) Rigid TL methods. 各クラスは、少なくとも数千のトレーニングデータポイントを持っているが、ほとんどの医療問題は、TLがユニークなパフォーマンスエッジ(23,20,14,13]と3)Rigid TLメソッドを持つ場合、データの不足に悩まされている。 0.69
They only evaluate the full-transfer (all layers finetuned from pretrained weights) and hybrid-transfer (i.e., Transfusion, bottom layers finetuned from pretrained weights while top layers finetuned from random initialization) strategies, but miss great alternatives, as we show below. 彼らはフルトランスファー(事前トレーニングされた重みから微調整された全層)とハイブリッドトランスファー(つまり、前訓練された重みから微調整された下層、ランダム初期化から微調整されたトップ層)戦略のみを評価するが、以下に示すように素晴らしい代替手段を見逃している。 0.50
In this paper, we challenge the conclusions of [18], and depict a picture of TL for MIC that is consistent with our intuition favoring only transferring low- to mid-level features. 本稿では,[18]の結論に挑戦し,低~中程度の特徴のみを伝達する直観と整合したMIC用TLの絵を描く。 0.70
Specifically, measuring performance using both AUROC and AURPC (area-under-precisio n-recall-curve, which reflects performance well even under class imbalance; see Section 2), we find the following: 具体的には、AUROCとAURPC(Area-under-pre cision-recall-curve) の両方を用いてパフォーマンスを測定する。 0.51
3 In R-DR identification, positives make up 7.8% and 14.6% of of the two validation sets, respectively [7]. 3 R-DR識別では, 2つの検証セットのそれぞれ7.8%と14.6%が陽性である[7]。 0.80
In CheXpert, positive samples make up about 16% only [11]. chexpertでは、陽性サンプルは[11]のみの約16%である。 0.72
英語(論文から抽出)日本語訳スコア
Rethink Transfer Learning in Medical Image Classification 医用画像分類における再考伝達学習 0.83
3 Fig. 2. 3 フィギュア。 2. 0.71
(left) ROC and PRC curves of two classifiers on the same binary classification problem. (左)同じ二項分類問題における2つの分類器のROC曲線とPRC曲線。 0.78
While the ROC curves are uniformly high and very close, their PRC curves are far apart. ROC曲線は均一に高く、非常に近いが、RC曲線は遠く離れている。 0.67
(right) Confusion table and definition of relevant terms for ROC and PRC curves. (右) ROC 曲線と PRC 曲線の融合表と関連する項の定義。 0.77
– For any model, shallow or deep, TL most often outperforms training from scratch, especially when the training set is small, reaffirming the performance benefit of TL; -どんなモデルでも、浅く、深く、tlは、特にトレーニングセットが小さい場合、tlのパフォーマンス上の利点を再確認して、スクラッチからトレーニングを上回ることが多い。 0.56
– The best TL strategy is finetuning truncated pretrained models (i.e., top layers removed) up to layers commensurate with the level of features needed. 最善のtl戦略は、事前訓練されたモデル(すなわち、トップレイヤを取り除いた)を必要な機能レベルに合致するレイヤまで微調整することである。
訳抜け防止モード: truncated Pretrained Model を微調整する TL 戦略が最適である。 (つまり、上層が取り除かれた) 必要な機能のレベルに相応しいレイヤまで。
0.75
This not only confirms that high-level features are probably not relevant for typical MIC, but also leads to compact models that are favorable for both training and inference. これは、高レベルの機能が典型的なMICと関係がないだけでなく、トレーニングと推論の両方に好適なコンパクトモデルにつながることを確認している。 0.70
2 Highlights of Key Technical Points 2 重要技術点のハイライト 0.67
2.1 Evaluation metrics: AUPRC vs. AUROC 2.1 評価指標: AUPRC vs. AUROC 0.82
For binary classification with a dominant negative class—common for MIC, the precision-recall curve (PRC) is well known to be more informative and indicative of the true performance than the ROC [15,21]. 支配的な負のクラスを持つ二項分類(MICでは一般的な)では、精度-リコール曲線(PRC)はROC[15,21]よりも真のパフォーマンスのより情報的かつ示唆的であることが知られている。 0.66
Fig 2(right) provides a quick reminder of the relevant notations. 図2(右)は、関連する表記を素早く思い出させる。 0.66
Even for mediocre classifiers that can only score the positives above the majority of the negatives, the TPRs quickly climb to high values for low FPRs—dictated by large TNs in early cut-off points, leading to uniformly high and close AUROCs. 負の過半数以上の正の値しか得点できない中間分類器であっても、TPRはすぐに低いFPRに対して高い値に上昇し、初期のカットオフポイントにおいて大きなTNによって予測され、均一に高いAUROCが閉じられる。 0.65
So AUROC cannot tell good classifiers from mediocre classifiers. したがって、AUROCは中間分類器から良い分類器を区別することはできない。 0.45
In contrast, PRC captures the granularity of performance by including precision that is sensitive to the ranking of positives vs. all negatives, rendering AUPRC a favorable metric in the presence of class imbalance. 対照的に、PRCは、正のランクと全ての負のランクに敏感な精度を含むことによって、パフォーマンスの粒度を捉え、AUPRCをクラス不均衡の存在下で好ましい指標にする。
訳抜け防止モード: 対照的に、PRCは精度を含めることで性能の粒度を捉える 正のランクと全ての負のランクに敏感です AUPRCはクラス不均衡の存在において好ましい指標である。
0.79
To quickly see the gap, consider a dataset consisting of 10 positives and 990 negatives for a rare disease. ギャップを素早く見るためには、まれな疾患に対して10の陽性と990の陰性からなるデータセットを考える。 0.73
Assume Classifier A (CA) scores the positives uniformly over the top 12, and Classifier B (CB) scores the positives uniformly over the top 30. 仮定分類器A(CA)はトップ12で正を均一にスコアし、分類器B(CB)はトップ30で正を均一にスコアする。 0.74
Intuitively, CA performs much better than CB, as they detect 1 TP case at the cost of 0.2 and 2 FP cases, respectively—this is captured by precision. 直感的には、CA は 0.2 と 2 の FP のコストで 1 の TP ケースを検知するので、CB よりもはるかに優れている。 0.74
Figure 2 (left) presents the ROC and PRC curves for CA and CB: both CA and 図2(左)は、CA と CB の ROC と PRC 曲線を示します: CA と CB の両方です。 0.76
0.00.51.0FPR0.00.51. 0TPR/RecallROC1ROC20.00.5 1.0TPR/Recall0.00.51.0Preci sionPRC1PRC2 0.00.5fpr0.00.50.5tp r>/-recallroc1roc20.00 .51.0tpr>/-recall0.00.51.0pre cisionprc1prc2 0.05
英語(論文から抽出)日本語訳スコア
4 Le Peng, Hengyue Liang, Taihui Li, and Ju Sun 4 Le Peng, Hengyue Liang, Taihui Li, Ju Sun 0.80
CB perform almost perfectly told from ROCs, but PRCs reveal the substantial performance gap clearly—while CA is good, CB is probably unacceptable in medical diagnosis (CA: AUROC= 0.999, AUPRC= 0.990; CB:AUROC= 0.991, AUPRC= 0.354). CB はほぼ完全に ROC から報告されているが、PRC は顕著な性能差を明らかにしており、CA は良いが、CB はおそらく医学診断では受け入れられない(CA: AUROC= 0.999, AUPRC= 0.990; CB: AUROC= 0.991, AUPRC= 0.354)。 0.68
In our experiments, the medical datasets are imbalanced, if not significantly, and hence we report both AUROC and AUPRC, while the prior work [18] only reports AUROC. 我々の実験では、医療データセットは著しくバランスが取れていないため、aurocとauprcの両方を報告していますが、[18]以前の研究はaurocのみを報告しています。
訳抜け防止モード: 我々の実験では、医療データセットはそれほど大きくはなくても不均衡である。 その結果, AUROC と AUPRC の双方を報告し, 先行作業 [18 ] は AUROC のみを報告した。
0.72
As we show in Section 3, the use of AUPRC helps us to reaffirm the performance benefit of TL, against the conclusion made in [18]. 第3節で示すように、[18]の結論に反して、AUPRCの使用は、TLのパフォーマンス上のメリットを再確認するのに役立ちます。
訳抜け防止モード: 第3節で示すように、AUPRCの使用は、TLの性能上の利点を再確認するのに役立ちます。 18]の結論に反します
0.70
2.2 Networks models and training strategies 2.2 ネットワークモデルとトレーニング戦略 0.87
We study three types of network models: (1) Shallow networks: i.e., the CBR (convolution-batchno rm-relu) family proposed in [18]. 本研究では,(1)浅層ネットワーク,すなわち[18]で提案されたCBRファミリーの3種類のネットワークモデルについて検討する。 0.79
These are basic convolutional networks with 4 (CBR-LargeW, CBR-Small, CBR-Tiny) or 5 (CBR-LargeW) convolution layers composed of 5× 5 or 7× 7 filters; details are in Appendix A of [18]; (2) Deep networks: ResNet50[8] and DenseNet121[9], both are popular in TL for MIC [3,11,19]; (3) Truncated networks: ResNet50 [8] and DenseNet121[9] truncated at different levels, including i) Res-T1, Res-T2, Res-T3, Res-T4, Res-T5, which are ResNet50 truncated at the first 25(50%)4, 37(74%), 43(86%), 46(92%), and 49(98%) convolutional layers, respectively; and ii) Dens-T1, Dens-T2, and Dens-T3, which are DenseNet121 truncated at the first 1(12%), 2(32%), and 3(88%) dense blocks, respectively. These are basic convolutional networks with 4 (CBR-LargeW, CBR-Small, CBR-Tiny) or 5 (CBR-LargeW) convolution layers composed of 5× 5 or 7× 7 filters; details are in Appendix A of [18]; (2) Deep networks: ResNet50[8] and DenseNet121[9], both are popular in TL for MIC [3,11,19]; (3) Truncated networks: ResNet50 [8] and DenseNet121[9] truncated at different levels, including i) Res-T1, Res-T2, Res-T3, Res-T4, Res-T5, which are ResNet50 truncated at the first 25(50%)4, 37(74%), 43(86%), 46(92%), and 49(98%) convolutional layers, respectively; and ii) Dens-T1, Dens-T2, and Dens-T3, which are DenseNet121 truncated at the first 1(12%), 2(32%), and 3(88%) dense blocks, respectively. 0.98
For all these models, the final fully-connected layers are adjusted or appended whenever necessary. これらのモデルすべてにおいて、最終的な完全接続層は必要に応じて調整または追加される。 0.60
We compare two training strategies: (1) Random initialization (RI): The network is trained with all weights randomly initialized; (2) Transfer learning (TL): Pretrained network weights are finetuned. 1)ランダム初期化(RI):ネットワークはランダムに初期化され、(2)転送学習(TL):事前トレーニングされたネットワーク重量は微調整される。
訳抜け防止モード: 2つのトレーニング戦略を比較する: (1 )ランダム初期化(RI) : ネットワークはランダムに初期化される全ての重みで訓練される ; (2 )トランスファーラーニング(TL) 事前訓練されたネットワーク重量は微調整される。
0.75
All the pretrained models are trained on ImageNet, a standard image classification dataset in computer vision [5]. トレーニング済みのモデルはすべて、コンピュータビジョンの標準的なイメージ分類データセットであるimagenetでトレーニングされます [5]。 0.78
2.3 Datasets and setups 2.3 データセットと設定 0.67
The prior work [18] performs their experiments on CheXpert [11] and Retina [7], but Retina is private. 前回の研究[18]はCheXpert[11]とRetina[7]で実験を行いましたが、Retinaは非公開です。 0.77
We evaluate our models and training strategies on CheXpert [11], and a private COVID-19 chest x-ray dataset. 私たちはchexpert[11]とプライベートなcovid-19胸部x線データセットのモデルとトレーニング戦略を評価します。 0.62
CheXpert consists of 224,316 chest x-rays of 65,240 patients, with binary labels for each of the 13 pathologies for each x-ray5: No Finding (NF), Enlarged Cardiome (EC), Cardiomegaly (Ca. CheXpertは, 65,240例の胸部X線写真224,316例からなり, 各X線写真13例 (No Finding (NF), Enlarged Cardiome (EC), Cardiomegaly (Ca。
訳抜け防止モード: CheXpertは224,316個の胸部X線からなり、65,240人の患者からなる。 x - ray5 : No Finding (NF ) 拡張心筋症 (EC) , 心内膜症 (Ca) 。
0.73
), Lung Opacity (LO), Lung Lesion (LL), Edema (Ed. ),肺Opacity (LO), Lung Lesion (LL), Edema (Ed。 0.67
), Consolidation (Co.), Pneumonia (Pn. ) コンソリデーション (Co.), 肺炎 (Pn。 0.55
), Atelectasis (At. ), atelectasis (at。 0.63
), Pneumothorax (Pt. ), Pleural Effusion (PE), Pleural Other (PO), Fracture (Fr.). 肺気胸(Pt。 ), 胸水 (pe), 胸水 (po), 胸水 (po), 骨折 (fr.) の順であった。 0.55
We randomly divide the dataset into training (160,858), validation (17,875), and test (44,684) sets. ランダムにデータセットをトレーニング(160,858),検証(17,875),テスト(44,684)に分割する。 0.80
The setting is different from that of [18] and we do not directly 設定は[18]と異なり、直接ではありません 0.59
4 All the percentages here indicate the percentages of retained layers out of all layers 4 ここでのすべての割合は、すべての層のうち保持層の割合を示す。 0.68
in the respective deep models. それぞれの深層モデルで 0.56
5 We map all “Uncertainty” labels into “0” (negative, i.e., the U-Zeros model in [11]). 5 すべての“不確実性”ラベルを“0”(負、すなわち[11]のU-Zerosモデル)にマッピングします。 0.78
We omit the “Support Devices” class as it is different from typical medical pathologies. 典型的医療病理と異なるため,Support Devices クラスを省略する。 0.55
英語(論文から抽出)日本語訳スコア
Rethink Transfer Learning in Medical Image Classification 医用画像分類における再考伝達学習 0.83
5 compare with their results [18], as: 1) they test on the official validation set, which only consists of 200 x-rays and also misses several pathologies. 5 1) 公式の検証セットをテストするが、これは200のX線のみで構成されており、いくつかの病理も見逃している。
訳抜け防止モード: 5 公式の検証セットでテストした結果[18]と比較します。 200x線のみで構成され、いくつかの病理を見逃している。
0.75
We prefer the much larger test set constructed above for stable and comprehensive evaluation; 2) our purpose is not to obtain or surpass the state-of-the-art results on the dataset, but to evaluate the models and training strategies that we listed above in a consistent manner; and 3) they do not provide sufficient training details or codes for easy reproducibility. 安定的で包括的な評価のために構築された、はるかに大きなテストセットを好んでおり、2)データセットの最先端結果の取得や超越ではなく、上記のモデルとトレーニング戦略を一貫した方法で評価すること、3)再現性に十分なトレーニングの詳細やコードを提供していないこと。 0.73
Our COVID-19 dataset comprises 3,998 COVID-positive and 41,515 COVIDnegative frontal chest x-rays collected from M Health Fairview, Minnesota, USA; details can be found in [24]. 私たちのCOVID-19データセットは、ミネソタ州M Health Fairviewで収集された3,998 COVID陽性と41,515 COVID陰性前頭胸X線で構成されています。 0.71
We focus on prospective evaluation: training and validation are performed on x-rays dated before June 30th 2020, and test is performed on x-rays dated after. 我々は,2020年6月30日以前のX線でトレーニングと検証を行い,その後に行われたX線で試験を行う。 0.67
By this splitting strategy, our training set has 1,777 positives and 29,030 negatives (imbalance ratio 1:16.3), validation set has 444 positives and 7,257 negatives, and the test set has 1,777 positives and 5,228 negatives (imbalance ratio 1:2.94)—the drifting imbalance ratio is a salient feature of pandemic data such as COVID-19. この分離戦略により,我々のトレーニングセットは1,777陽性,29,030負(不均衡比1:16.3),バリデーションセットは444陽性,7,257負(不均衡比1:2.94)であり,テストセットは1,777陽性,5,228負(不均衡比1:2.94)である。 0.71
To account for randomness, each experiment is independently repeated three times, and the mean and standard deviation of all performance scores are reported. ランダム性を考慮するために、各実験は独立に3回繰り返し、全てのパフォーマンススコアの平均偏差と標準偏差を報告する。 0.80
3 Transfer Learning (TL) vs. Random Initialization (RI) 3 transfer learning (tl) vs. random initialization (ri) 0.84
In this section, we compare TL and RI on deep and shallow models in data-rich and data-poor regimes, respectively. 本稿では, 深部モデルと浅部モデルにおけるTLとRIを比較し, 深部モデルと浅部モデルを比較した。
訳抜け防止モード: 本稿では,深部モデルと浅部モデルにおけるTLとRIの比較を行う。 -富とデータ 貧乏な体制だ
0.68
Both CheXpert and COVID-19 contain over 1,000 samples per class, and this is relatively high for medical tasks. CheXpertとCOVID-19はどちらもクラスごとに1,000以上のサンプルを含んでいる。 0.60
So we consider experiments on the original datasets to be in the data-rich regime. したがって、オリジナルのデータセットに関する実験は、データ豊富なレジームにあると考えます。 0.59
To simulate data-poor regimes, we focus on the COVID-19 dataset and subsample 5% and 10% of the original training set. data-poorレジームをシミュレートするために、covid-19データセットと、オリジナルのトレーニングセットの5%と10%をサブサンプルする。 0.66
3.1 Data-rich regime The scores on CheXpert are presented in Fig 3 (standard deviation: ≤ 0.017). 3.1 データリッチレジーム CheXpertのスコアは図3(標準偏差: ≤ 0.017)で示される。 0.79
While TL and RI perform comparably on most pathologies and models, in a number of cases on deep models, TL outperforms RI by significant gaps, e g , ResNet50 on Pt., TL is 10% above RI, as measured by AUPRC. TL と RI は、ほとんどの病理学やモデルで比較可能であるが、深層モデルでは、TL は AUPRC が測定した RI よりも10% 上である(例えば Pt. の ResNet50 など)。 0.71
Overall, on deep models, TL outperforms RI marginally on most pathologies, and considerably on a number of pathologies, measured by both AUROC and AUPRC. 総じて、深部モデルでは、TLはほとんどの病理ではRIよりも優れており、AUROCとAUPRCで測定された多くの病理ではかなり優れている。 0.59
On shallow models, TL and RI are very close by both metrics. 浅いモデルでは、tlとriは両方のメトリクスで非常に近い。 0.60
The scores on COVID-19 can be read off from Fig 4 (i.e., “w. 新型コロナウイルス(covid-19)のスコアは、図4(“w”)から読み取ることができる。 0.50
100% data”; standard deviation ≤ 0.038). 100%データ”; 標準偏差 ≤ 0.038)。 0.82
We observe a similar trend to that of CheXpert. 我々はCheXpertと同じような傾向を観察する。 0.82
TL leads to substantial performance gains on DenseNet121, and marginal gains or occasional losses on shallow models. TLはDenseNet121で大幅にパフォーマンスが向上し、浅いモデルでは限界ゲインや時折損失が発生する。 0.62
Overall, on both datasets and in all settings, the best-performing combination is most often TL, not RI, coupled with a certain model. 全体として、データセットとすべての設定において、最もパフォーマンスの高い組み合わせは、最も多く、riではなくtlであり、特定のモデルと結合している。
訳抜け防止モード: 全体として、データセットとすべての設定において、最も優れた組み合わせはTLである。 RIではなく、特定のモデルと結合する。
0.66
AUPRC is a crucial tie-breaker when AUROCs are close. AUPRCはAUROCが近い場合、重要なタイブレーカーである。 0.68
英語(論文から抽出)日本語訳スコア
6 Le Peng, Hengyue Liang, Taihui Li, and Ju Sun 6 Le Peng, Hengyue Liang, Taihui Li, Ju Sun 0.80
Fig. 3. TL vs. RI on deep and shallow models for CheXpert. フィギュア。 3. CheXpertの深部および浅部モデルにおけるTL vs. RI 0.67
For almost all cases, RI performs on par with TL, but in a number of cases, TL outperforms RI by visible gaps, especially when measured by AUPRC. ほとんど全てのケースにおいて、RIはTLと同等に動作するが、多くのケースでは、特にAUPRCによって測定された場合、TLはRIよりも優れる。 0.59
0.550.600.650.700.75 0.800.850.90AUROCNFC a.LOEd.At.PE0.30.40. 50.60.70.8AUPRCDense Net121-TLDenseNet121 -RIResNet50-TLResNet 50-RICBR-LargeT-TLCB R-LargeT-RICBR-Large W-TLCBR-LargeW-RICBR -Small-TLCBR-Small-R ICBR-Tiny-TLCBR-Tiny -RI0.550.600.650.700 .750.800.850.90AUROC ECLLCo.Pn.Pt.POFr.0. 000.050.100.150.200. 250.300.35AUPRCDense Net121-TLDenseNet121 -RIResNet50-TLResNet 50-RICBR-LargeT-TLCB R-LargeT-RICBR-Large W-TLCBR-LargeW-RICBR -Small-TLCBR-Small-R ICBR-Tiny-TLCBR-Tiny -RI 0.550.600.600.800.80 0.850.90aurocnfca.lo ed.at.pe0.30.40.50.6 0.70.8auprcdensenet1 21-tldensenet121-rir esnet50-tlresnet50-r icbr-larget-larget-r icbr-largew-tlcbr-sm all-tlcbr-small-ricb r-tiny-tlcbr-tiny-ri 0.550.600.700.700.75 0.750.800.800.800.80 0.800.800.800.800.80 0.50.90aurocecllco.p n.90.90aurocecllco.p t.pofr.0.050.50.150. 150.250.300.300.35au prcdensenet50-ricbr- largetbr-largew-tlcb r-largew-largew-tlcb r-largew-richbr-smal l-tlcbr-small-small- tlcbr-small-small-tl cbr-small-tlcbr-tlcb r-tlcbr-tlcbr-tlcbr- tlcbr-small-tlcbr-tl cbr-tlcbr-tlcbr-tlcb r-tlcbr-tlcbr-tlcbr- tlcbr50.600.600 0.01
英語(論文から抽出)日本語訳スコア
Rethink Transfer Learning in Medical Image Classification 医用画像分類における再考伝達学習 0.83
7 3.2 Data-poor regime 7 3.2 データ貧困体制 0.70
Fig. 4. TL vs. RI on COVID-19. フィギュア。 4. TL vs. RI on COVID-19。 0.69
With the full dataset, TL wins over RI on DenseNet121, and they are close in performance on shallow models. 完全なデータセットにより、tlは densenet121 で ri に勝利し、浅いモデルでも性能が近い。 0.70
With 10% and 5% subsampled data only, TL outperforms RI on all but CBR-LargeT and CBR-LargeW. CBR-LargeT と CBR-LargeW を除く全てのデータに対して TL は RI を上回っている。 0.71
As we alluded to Section 1, TL is expected to benefit data-limited learning. 第1節に言及したように、TLはデータ制限学習の恩恵を受けるだろう。 0.54
To verify this, we simulate two small COVID-19 datasets: 1) 5% Data, which contains 1,539 cases (88 positives and 1,451 negatives); 2) 10% Data, which consists of 3,080 cases (177 positives and 2903 negatives). 1) 5%のデータは1,539例(88例、陰性1,451例)、2) 10%データは3,080例(177例、陰性2903例)である。
訳抜け防止モード: これを検証するために。 2つの小さなCOVID-19データセットをシミュレートします。 1,539 件 (88 件,1,451 件) ; 2 ) 10 % のデータを含む。 3,080例(陽性177例,陰性2903例)からなる。
0.69
Our training protocol and test data are exactly the same as Section 3.1. 私たちのトレーニングプロトコルとテストデータは、セクション3.1とまったく同じです。 0.70
The results are included in Fig. 結果はfigに含まれている。 0.56
4. We have two observations: 1) On all models, except for CBR-LargeT and CBR-LargeW, TL outperforms RI measured in both AUROC and AUPRC; 2) CBR-Small+TL is a clear winner for 5% data, whereas for 10% data, AUROC and AUPRC point to CBR-LargeW and DenseNet121, respectively. 4. 1) CBR-LargeT と CBR-LargeW を除く全てのモデルにおいて, TL は AUROC と AUPRC の両方で測定された RI よりも優れており, 2) CBR-Small+TL は 5% のデータに対して, 10% のデータでは AUROC と AUPRC は CBR-LargeW と DenseNet121 にそれぞれ勝っている。 0.83
This disparity highlights the need for reporting and comparing both metrics. この格差は、両方のメトリクスをレポートし比較する必要性を強調します。 0.54
4 Truncated Transfer Learning We have confirmed the advantage of TL over RI, especially on deep models. 4 断続的転校学習 我々は、特に深層モデルにおいて、RIよりもTLの利点を確認した。 0.68
It is natural to ask if we could have better ways of performing TL. TLのより良い実行方法があるかどうかを尋ねるのは当然です。 0.77
Since we probably do not need high-level features, it is puzzling why in TL on deep models we need to keep the top layers at all. 高レベルの機能はおそらく必要ありませんから,上位レイヤをまったく保持する必要のないディープモデルでのTLが問題になります。 0.68
This motivates the truncated networks that we proposed in Section 2.2. これは、私たちが2.2節で提案した途切れたネットワークを動機付けます。 0.47
In this section, we compare the performance of TL on these truncated models and their parent deep models, as well as selected CBR shallow models. 本稿では,これらの乱れモデルとその親深度モデルにおけるTLの性能と,選択したCBR浅度モデルとの比較を行う。 0.83
We omit Transfusion proposed in [18], as according to the 私たちは[18]で提案された輸血を省略します 0.66
0.740.760.780.800.82 0.840.860.880.90AURO CTL w. 5% DataRI w. 5% DataTL w. 10% DataRI w. 10% DataTL w. 100% DataRI w. 100% DataDenseNet121CBR-L argeTCBR-LargeWCBR-S mallCBR-Tiny0.500.55 0.600.650.700.75AUPR C 0.740.760.780.800.82 0.840.860.880.90AURO CTL w.5% DataRI w.5% DataTL w. 10% DataTL w. 10% DataTL w.100% DataRI w.100% DataDenseNet121CBR-L argeTCBR-LargeWCBR-S mallCBR-Tiny0.500.55 0.600.650.700.75AUPR C 0.40
英語(論文から抽出)日本語訳スコア
8 Le Peng, Hengyue Liang, Taihui Li, and Ju Sun 8 Le Peng, Hengyue Liang, Taihui Li, Ju Sun 0.80
Fig. 5. TL AUROC and AUPRC on COVID-19. フィギュア。 5. TL AUROCとAUPRC 0.55
Here we include all shallow models, and Dens-F is DenseNet121. ここにはすべての浅層モデルが含まれ、dens-f は densenet121 である。 0.54
Dens-T1 and Dens-T2 are among the best models. Dens-T1とDens-T2は最高のモデルだ。 0.66
Fig. 6. TL AUROC and AUPRC on CheXpert. フィギュア。 6. TL AUROCとAUPRC on CheXpert 0.64
Here CBR is the CBR-Small, which performs the best among all shallow models, and Dens-F is DenseNet121. CBRはCBR-Smallで全ての浅いモデルの中で最高の性能を発揮し、Dens-FはDenseNet121である。 0.67
Dens-T3 performs the best on all pathologies. Dens-T3はすべての病理で最善を尽くす。 0.59
TL w. 5% DataTL w. 10% DataTL w. 100% Data0.740.760.780.80 0.820.840.860.88AURO CTL w. 5% DataTL w. 10% DataTL w. 100% Data0.450.500.550.60 0.650.700.75AUPRCDen s-T1Dens-T2Dens-T3De nseNet121CBR-LargeTC BR-LargeWCBR-SmallCB R-Tiny0.600.650.700. 750.800.85AUROCNFECC a.LOLLEd.Co.Pn.At.Pt .PEPOFr.0.10.20.30.4 0.50.60.70.8AUPRCCBR Dens-T1Dens-T2Dens-T 3Dens-F TL w. 5% DataTL w. 10% DataTL w. 100% Data0.740.760.780.80 0.820.84.88 AUROCTL w. 5% DataTL w. 10% DataTL w. 100% Data0.450.500.550.60 0.650.700.75AUPRCDen s-T1Dens-T2Dens-T3De nseNet121CBR-LargeTC BR-LargeWCBR-SmallCB R-Tiny0.600.650.700. 800.85AUROCNFECCa.LO LLEd.Co.At.At.P.PEFr .0.0.20.30.30.30.50. 60.60.60.50.650.700 0.21
英語(論文から抽出)日本語訳スコア
Rethink Transfer Learning in Medical Image Classification 医用画像分類における再考伝達学習 0.83
9 evaluation there, it does not lead to performance improvement compared to TL on full models, but just better convergence speed—which is not the focus of the current paper. 9 ここでの評価では、フルモデルでのtlと比較してパフォーマンスが向上するわけではないが、コンバージェンス速度が向上している。
訳抜け防止モード: 9 評価では,フルモデルでのTLに比べて性能が向上しない。 しかし、コンバージェンス速度が向上すれば、これは現在の論文の焦点ではない。
0.79
The training and test protocols follow exactly those of Section 3. トレーニングとテストのプロトコルは第3節のプロトコルに従っている。 0.72
Fig. 5 summarizes the results on our COVID-19 dataset. フィギュア。 COVID-19データセットの結果を要約します。 0.56
It is evident that DensT1 and Dens-T2, which are heavily truncated (up to 1/3 of the original depth) versions of DenseNet121, are the top two performant models when combined with TL. DensT1 と Dens-T2 は DenseNet121 の重く切り詰められたバージョンであり、TL と組み合わせると上位2つのパフォーマンスモデルであることが明らかである。 0.77
In contrast, Dens-T3 and Dens-F with less aggressive truncations can be substantially worse, and sometimes even worse than the shallow models. 対照的に、攻撃性の低いDens-T3とDens-Fは、浅いモデルよりも著しく悪化することがある。 0.69
From COVID-19 medical studies, it is known that salient radiomic features for COVID19 are opacities and consolidation in the lung area that only concern low-level textures and perhaps also mid-level blobs [27,22]. 新型コロナウイルス(COVID-19)の医学研究から、新型コロナウイルスの健康な放射線学的特徴は、低レベルのテクスチャとおそらく中レベルのブロブ(27,22)にのみ関心を持つ肺領域における不透明度と凝縮であることが知られている。
訳抜け防止モード: 新型コロナウイルスの医学研究から、新型コロナウイルス19の健康な放射線特徴が不透明であることが知られている 肺の領域を固め 低レベルのテクスチャとおそらく中レベルのブロブ [ 2722 ] にのみ関心があります。
0.50
This is a strong confirmation that only a reasonable number of bottom layers are needed for efficient TL. これは、効率的なTLのために適切な数の底層だけが必要であるという強い確証である。 0.65
Fig. 6 presents the results on CheXpert. フィギュア。 CheXpert.6で結果が提示される。 0.56
Dens-T3 is the best model, although in most cases it is comparable to Dens-F. Dens-T3は最高のモデルだが、ほとんどの場合Dens-Fに匹敵する。 0.78
Note that compared to Dens-T2 or DensT1 that exceled on the COVID-19 dataset, Dens-T3 is far deeper (88% vs. 1/3 of the original depth). 新型コロナウイルス(COVID-19)データセットから抽出したDens-T2やDens-T1と比較して、Dens-T3ははるかに深い(当初の深さの88%対1/3)。 0.53
This disparity can again be explained by feature hierarchy. この格差は、再び機能階層によって説明できる。 0.69
In CheXpert, pathologies such as atelectasis and pneumothorax need relatively high-level features as they start to concern shapes, in contrast to the low- and mid-level features used in COVID-19. chexpertでは、 atelectasis や pneumothorax のような病理学は、covid-19 で使われる低レベルや中レベルの機能とは対照的に、形状に関する懸念から比較的高レベルの機能を必要としている。 0.45
Another observation is that on EC, LL, PO, Fr., the AUPRCs are very low (below 20%) although the corresponding AUROCs are all above 60% or even mostly 70%. 他の観察では、EC, LL, PO, Fr. では AUPRC が非常に低く(20%以下)、対応する AUROC は 60% 以上、あるいは 70% 以上である。 0.82
These are rare diseases in CheXpert with high imbalance ratios between positives and negatives (EC: 1:19.8, LL: 1:26.4, PO: 1:75.9, Fr. これらの疾患は、陽性と陰性の間で高い不均衡率(ec: 1:19.8, ll: 1:26.4, po: 1:75.9, fr)を持つチェプセルトの稀な疾患である。
訳抜け防止モード: これらはCheXpertで稀な疾患であり、陽性と陰性(EC : 1:19.8, LL : 1:26.4 , PO : 1:75.9 , Fr 。
0.64
: 1:24.8). : 1:24.8). 0.65
Even for the best models here, the AUROCs may be considered decent, but their actual performance, when precision is taken into account via AUPRC, is very poor6. 最高のモデルであっても、AUROCはまともな評価を受けることができるが、AUPRCによる精度を考慮した実際の性能は、非常に貧弱である。 0.66
This reinforces our claim that AUPRC needs to be reported when evaluating classifiers on data with class imbalance. これにより、AUPRCはクラス不均衡のデータ上の分類器を評価する際に報告する必要があるという我々の主張を補強する。 0.57
5 Discussion In this paper, we revisit transfer learning (TL) for medical imaging classification (MIC) on chest X-rays, taking into account characteristics of typical medical datasets such as class imbalance and small data. 5 討論 本稿では,胸部x線画像分類(mic)のための転送学習(tl)を再検討し,クラス不均衡や小値データなどの典型的な医療データセットの特徴を考察する。 0.76
By evaluating different TL strategies on a number of shallow and deep convolutional neural network models, we find that 1) TL does benefit the classification performance, especially in data-poor scenarios; 2) only transferring truncated deep pretrained models up to layers commensurate with the level of features needed for the classification task leads to superior performance compared to conventional TL on deep and shallow models. 浅層および深層畳み込みニューラルネットワークモデルにおける様々なTL戦略を評価することにより,1)TLは,特にデータポーラシナリオにおいて,分類性能に有益であることがわかった。
訳抜け防止モード: 複数の浅層および深層畳み込みニューラルネットワークモデル上で異なるtl戦略を評価することにより、 1 ) tl は分類性能に有益である。 特にデータ - 貧弱なシナリオ ; 2 ) 分類タスクに必要な機能レベルに適合する層まで、途切れた深い事前学習されたモデルだけを転送することは、深層モデルと浅層モデルの従来のtlよりも優れたパフォーマンスをもたらす。
0.79
During our experimentation, we have also highlighted the role of AUPRC in distinguishing good classifiers from mediocre ones under class imbalance. 実験では,auprcがクラス不均衡下の中間子と良い分類器を区別する役割についても強調した。 0.67
Our results support that low- and mid-level visual features are probably sufficient for typical MIC, and high-level features are needed only occasionally. 以上の結果から,低レベル・中レベルの視覚的特徴は典型的なMICに十分であり,高レベルの特徴は時折必要であると考えられる。 0.60
Potential future directions include: 1) experimenting with other image modalities, such as CT and MRI images—if similar conclusion holds, the truncated TL 今後の方向性としては、1)ct画像やmri画像などの他の画像モダリティの実験—同様の結論が得られれば、tlは切断される。
訳抜け防止モード: 将来の可能性には、次のものがある。 CTやMRI画像など — 同様の結論が得られれば。 truncated (複数形 truncateds)
0.61
6 However, note that it does not make sense to cross compare AUPRCs across different しかし、6 つの異なる AUPRC を横断的に比較することは意味がないことに注意。 0.73
ratios; see discussions in Section 5.1 of [16] and [26]. 比率; [16]及び[26]の5.1節の議論を参照。 0.83
英語(論文から抽出)日本語訳スコア
10 Le Peng, Hengyue Liang, Taihui Li, and Ju Sun 10 Le Peng, Hengyue Liang, Taihui Li, Ju Sun 0.80
strategy can lead to a profound saving of computing resources for model training and inference on 3D medical data; 2) validating the conclusion on segmentation, another major family of imaging tasks, and other diseases; 3) investigating TL on models directly trained on medical datasets, e g , [4] and the pretrained models released in the Nvidia Clara Imaging package7, rather than computer vision datasets. 戦略は、3d医療データのモデルトレーニングと推論のための計算リソースの大幅な節約につながる可能性がある。2) セグメンテーション、画像処理のもう一つの主要ファミリー、その他の病気に関する結論の検証、3) 医療データセットで直接トレーニングされたモデル、例えば[4]およびコンピュータビジョンデータセットではなくnvidia clara imaging package7でリリースされた事前トレーニングされたモデルに対するtlの調査。 0.79
Acknowledgements The authors acknowledge the Minnesota Supercomputing Institute (MSI) at the University of Minnesota, and Microsoft Azure for providing computing resources. 承認 著者らはミネソタ大学のミネソタスーパーコンピューティング研究所(msi)と、コンピューティングリソースを提供するmicrosoft azureを認めている。 0.78
LP was partly supported by an OVPR COVID19 Rapid Response Grant of University of Minnesota. LPはミネソタ大学のOVPR COVID19 Rapid Response Grantによって部分的に支援された。 0.72
We also thank M Health Fairview of Minnesota for providing the private COVID19 data. ミネソタ州のM Health Fairviewも、プライベートなCOVID19データを提供している。 0.68
References 1. Anthimopoulos, M., Christodoulidis, S., Ebner, L., Christe, A., Mougiakakou, S.: Lung pattern classification for interstitial lung diseases using a deep convolutional neural network. 参考文献 1. Anthimopoulos, M., Christodoulidis, S., Ebner, L., Christe, A., Mougiakakou, S.: 深部畳み込みニューラルネットワークを用いた間質性肺疾患の肺パターン分類 0.78
IEEE transactions on medical imaging 35(5), 1207–1216 (2016) IEEEによる医用画像35(5), 1207-1216(2016年) 0.78
2. Antropova, N., Huynh, B.Q., Giger, M.L. 2. Antropova, N., Huynh, B.Q., Giger, M.L. 0.87
: A deep feature fusion methodology for breast cancer diagnosis demonstrated on three imaging modality datasets. 乳がん診断のための深部特徴融合法が3つの画像モダリティデータセットで実証された。 0.69
Medical physics 44(10), 5162–5171 (2017) 医学物理44(10)5162-5171(2017 年) 0.71
3. Bressem, K.K., Adams, L.C., Erxleben, C., Hamm, B., Niehues, S.M., Vahldiek, J.L. 3. Bressem, K.K., Adams, L.C., Erxleben, C., Hamm, B., Niehues, S.M., Vahldiek, J.L. 0.87
: Comparing different deep learning architectures for classification of chest radiographs. 胸部x線写真分類のための異なるディープラーニングアーキテクチャの比較 0.67
Scientific reports 10(1), 1–16 (2020) 科学的報告 10(1), 1–16 (2020) 0.94
4. Chen, S., Ma, K., Zheng, Y.: Med3d: Transfer learning for 3d medical image analysis. 4. Chen, S., Ma, K., Zheng, Y.: Med3d: 3D画像解析のための転送学習。 0.85
arXiv preprint arXiv:1904.00625 (2019) arXiv preprint arXiv:1904.00625 (2019) 0.75
5. Deng, J., Dong, W., Socher, R., Li, L., Kai Li, Li Fei-Fei: Imagenet: A large-scale hierarchical image database. 5. Deng, J., Dong, W., Socher, R., Li, L., Kai Li, Li Fei-Fei: Imagenet: 大規模な階層型イメージデータベース。 0.89
In: 2009 IEEE Conference on Computer Vision and Pattern Recognition. 2009年、IEEE Conference on Computer Vision and Pattern Recognition に参加。 0.82
pp. 248–255 (2009). pp. 248–255 (2009). 0.87
https://doi.org/10.1 109/CVPR.2009.520684 8 6. https://doi.org/10.1 109/CVPR.2009.520684 8 6。 0.34
Ghafoorian, M., Mehrtash, A., Kapur, T., Karssemeijer, N., Marchiori, E., Pesteie, M., Guttmann, C.R., de Leeuw, F.E., Tempany, C.M., Van Ginneken, B., et al : Transfer learning for domain adaptation in mri: Application in brain lesion segmentation. Ghafoorian, M., Mehrtash, A., Kapur, T., Karssemeijer, N., Marchiori, E., Pesteie, M., Guttmann, C.R., de Leeuw, F.E., Tempany, C.M., Van Ginneken, B., et. : Transfer Learning for Domain adaptation for mri: application in brain lesion segmentation。 0.90
In: International conference on medical image computing and computer-assisted intervention. in: international conference on medical image computing and computer-assisted intervention。 0.91
pp. 516–524. pp. 516–524. 0.78
Springer (2017) Springer (複数形 Springers) 0.56
7. Gulshan, V., Peng, L., Coram, M., Stumpe, M.C., Wu, D., Narayanaswamy, A., Venugopalan, S., Widner, K., Madams, T., Cuadros, J., Kim, R., Raman, R., Nelson, P.C., Mega, J.L., Webster, D.R. 7. Gulshan, V., Peng, L., Coram, M., Stumpe, M.C., Wu, D., Narayanaswamy, A., Venugopalan, S., Widner, K., Madams, T., Cuadros, J., Kim, R., Raman, R., Nelson, P.C., Mega, J.L., Webster, D.R。 0.90
: Development and validation of a deep learning algorithm for detection of diabetic retinopathy in retinal fundus photographs. 網膜眼底写真における糖尿病網膜症検出のための深層学習アルゴリズムの開発と検証 0.79
JAMA 316(22), 2402 (dec 2016). jama 316(22)、2402(2016年12月)。 0.71
https://doi.org/10.1 001/jama.2016.17216 https://doi.org/10.1 001/jama.2016.17216 0.26
8. He, K., Zhang, X., Ren, S., Sun, J.: Deep residual learning for image recognition. 8. He, K., Zhang, X., Ren, S., Sun, J.: 画像認識のための残留学習。 0.81
In: Proceedings of the IEEE conference on computer vision and pattern recognition. In: コンピュータビジョンとパターン認識に関するIEEEカンファレンスの成果。 0.68
pp. 770–778 (2016) pp. 770–778 (2016) 0.85
9. Huang, G., Liu, Z., Van Der Maaten, L., Weinberger, K.Q. 9. Huang, G., Liu, Z., Van Der Maaten, L., Weinberger, K.Q 0.86
: Densely connected convolutional networks. 密結合した畳み込みネットワーク。 0.66
In: Proceedings of the IEEE conference on computer vision and pattern recognition. In: コンピュータビジョンとパターン認識に関するIEEEカンファレンスの成果。 0.68
pp. 4700–4708 (2017) pp. 4700–4708 (2017) 0.85
7 https://developer.nv idia.com/clara 7 https://developer.nv idia.com/clara 0.45
英語(論文から抽出)日本語訳スコア
Rethink Transfer Learning in Medical Image Classification 医用画像分類における再考伝達学習 0.83
11 10. Huynh, B.Q., Li, H., Giger, M.L. 11 10. Huynh, B.Q., Li, H., Giger, M.L. 0.87
: Digital mammographic tumor classification using transfer learning from deep convolutional neural networks. 深層畳み込みニューラルネットワークを用いたトランスファーラーニングによる乳腺腫瘍のデジタル分類 0.75
Journal of Medical Imaging 3(3), 034501 (2016) Journal of Medical Imaging 3(3), 034501 (2016) 0.79
11. Irvin, J., Rajpurkar, P., Ko, M., Yu, Y., Ciurea-Ilcus, S., Chute, C., Marklund, H., Haghgoo, B., Ball, R., Shpanskaya, K., et al : Chexpert: A large chest radiograph dataset with uncertainty labels and expert comparison. 11. Irvin, J., Rajpurkar, P., Ko, M., Yu, Y., Ciurea-Ilcus, S., Chute, C., Marklund, H., Haghgoo, B., Ball, R., Shpanskaya, K., et al : Chexpert: 不確実性ラベルと専門家比較を備えた大規模な胸部X線写真データセット。 0.88
In: Proceedings of the AAAI Conference on Artificial Intelligence. 人工知能学会(AAAI Conference on Artificial Intelligence)の略。 0.72
vol. 33, pp. Vol. 33, pp。 0.75
590–597 (2019) 590–597 (2019) 0.84
12. Jiang, Z., Zhang, H., Wang, Y., Ko, S.B. 12. Jiang, Z., Zhang, H., Wang, Y., Ko, S.B. 0.90
: Retinal blood vessel segmentation using fully convolutional network with transfer learning. トランスファー・ラーニングを用いた完全畳み込みネットワークを用いた網膜血管分割 0.67
Computerized Medical Imaging and Graphics 68, 1–15 (2018) Computerized Medical Imaging and Graphics 68, 1-15 (2018) 0.94
13. Karimi, D., Warfield, S.K., Gholipour, A.: Critical assessment of transfer learning for medical image segmentation with fully convolutional neural networks. 13. karimi, d., warfield, s.k., gholipour, a.: critical assessment of transfer learning for medical image segmentation with full convolutional neural networks (英語) 0.85
arXiv preprint arXiv:2006.00356 (2020) arXiv preprint arXiv:2006.00356 (2020) 0.75
14. Khalifa, N.E.M., Loey, M., Taha, M.H.N., Mohamed, H.N.E.T. 14. Khalifa, N.E.M., Loey, M., Taha, M.H.N., Mohamed, H.N.E.T. 0.75
: Deep transfer learning models for medical diabetic retinopathy detection. 医学的糖尿病網膜症検出のための深層学習モデル 0.75
Acta Informatica Medica 27(5), 327 (2019) Acta Informatica Medica 27(5), 327 (2019) 0.78
15. Lever, J., Krzywinski, M., Altman, N.: Classification evaluation. 15. Lever, J., Krzywinski, M., Altman, N.: 分類評価 0.83
Nature Methods 13(8), 603–604 (jul 2016). 自然の方法 13(8), 603-604(2016年6月)。 0.75
https://doi.org/10.1 038/nmeth.3945 https://doi.org/10.1 038/nmeth.3945 0.29
16. Murphy, K.P. 16. マーフィー k. p. 0.68
: Probabilistic Machine Learning: An introduction. 確率論的機械学習 : 入門 0.58
MIT Press (2021), MITプレス(2021年) 0.68
probml.ai 17. probml.ai 17. 0.72
Nguyen, H.Q., Pham, H.H., Nguyen, N.T., Nguyen, D.B., Dao, M., Vu, V., Lam, K., Le, L.T. Nguyen, H.Q., Pham, H.H., N.T., Nguyen, D.B., Dao, M., Vu, V., Lam, K., Le, L.T. 0.93
: Vinbigdata chest x-ray abnormalities detection. : Vinbigdata chest X線異常検出。 0.81
url=https://www.kaggle.c om/c/vinbigdata-ches t-xray-abnormalities -detection (2021) url=https://www.kaggle.c om/c/vinbigdata-ches t-xray-abnormalities -detection (2021) 0.31
18. Raghu, M., Zhang, C., Kleinberg, J., Bengio, S.: Transfusion: Understanding transfer learning for medical imaging. 18. Raghu, M., Zhang, C., Kleinberg, J., Bengio, S.: Transfusion: 医療画像のための伝達学習を理解する。 0.88
In: Advances in Neural Information Processing Systems. in: 神経情報処理システムの進歩。 0.71
vol. 32, pp. Vol. 32, pp。 0.75
3347–3357. 3347–3357. 0.71
Curran Associates, Inc. (2019) Curran Associates, Inc. (2019) 0.96
19. Rajpurkar, P., Irvin, J., Zhu, K., Yang, B., Mehta, H., Duan, T., Ding, D., Bagul, A., Langlotz, C., Shpanskaya, K., et al : Chexnet: Radiologist-level pneumonia detection on chest x-rays with deep learning. 19. Rajpurkar, P., Irvin, J., Zhu, K., Yang, B., Mehta, H., Duan, T., Ding, D., Bagul, A., Langlotz, C., Shpanskaya, K., et al : Chexnet: 深層学習を伴う胸部X線に対する放射線科レベルの肺炎検出。 0.87
arXiv preprint arXiv:1711.05225 (2017) arXiv preprint arXiv:1711.05225 (2017) 0.75
20. Ravishankar, H., Sudhakar, P., Venkataramani, R., Thiruvenkadam, S., Annangi, P., Babu, N., Vaidya, V.: Understanding the mechanisms of deep transfer learning for medical images. 20. ravishankar, h., sudhakar, p., venkataramani, r., thiruvenkadam, s., annangi, p., babu, n., vaidya, v.: understand the mechanism of deep transfer learning for medical images (英語) 0.80
In: Deep learning and data labeling for medical applications, pp. In: 医学応用のための深層学習とデータラベリング, pp。 0.81
188–196. Springer (2016) 188–196. Springer (複数形 Springers) 0.66
21. Saito, T., Rehmsmeier, M.: The precision-recall plot is more informative than the roc plot when evaluating binary classifiers on imbalanced datasets. 21. saito, t., rehmsmeier, m.: 不均衡データセットのバイナリ分類子を評価する際、精度再呼び出しプロットはrocプロットよりも有益である。 0.75
PloS one 10(3), e0118432 (2015) PloS 1 10(3), e0118432 (2015) 0.83
22. Shi, H., Han, X., Jiang, N., Cao, Y., Alwalid, O., Gu, J., Fan, Y., Zheng, C.: Radiological findings from 81 patients with covid-19 pneumonia in wuhan, china: a descriptive study. 22. Shi, H., Han, X., Jiang, N., Cao, Y., Alwalid, O., Gu, J., Fan, Y., Zheng, C. : 中国武漢市におけるコビッド19型肺炎81例の放射線学的検討 0.81
The Lancet infectious diseases 20(4), 425–434 (2020) ランセット感染症20(4)、425-434(2020年) 0.82
23. Shin, H.C., Roth, H.R., Gao, M., Lu, L., Xu, Z., Nogues, I., Yao, J., Mollura, D., Summers, R.M. 23. Shin, H.C., Roth, H.R., Gao, M., Lu, L., Xu, Z., Nogues, I., Yao, J., Mollura, D., Summers, R.M. 0.92
: Deep convolutional neural networks for computer-aided detection: Cnn architectures, dataset characteristics and transfer learning. : コンピュータ支援検出のための深層畳み込みニューラルネットワーク:cnnアーキテクチャ、データセット特性、転送学習 0.83
IEEE transactions on medical imaging 35(5), 1285–1298 (2016) IEEEによる医用画像35(5), 1285-1298(2016年) 0.77
24. Sun, J., Peng, L., Li, T., Adila, D., Zaiman, Z., Melton, G.B., Ingraham, N., Murray, E., Boley, D., Switzer, S., Burns, J.L., Huang, K., Allen, T., Steenburg, S.D., Gichoya, J.W., Kummerfeld, E., Tignanelli, C.: A prospective observational study to investigate performance of a chest x-ray artificial intelligence diagnostic support tool across 12 u.s. hospitals. 24. Sun, J., Peng, L., Li, T., Adila, D., Zaiman, Z., Melton, G.B., Ingraham, N., Murray, E., Boley, D., Switzer, S., Burns, J.L., Huang, K., Allen, T., Steenburg, S.D., Gichoya, J.W., Kummerfeld, E., Tignanelli, C.: 12 U.S.病院における胸部X線人工知能支援ツールの性能を調べるための先進的な観察研究。 0.90
medRxiv (2021). medRxiv (2021)。 0.76
https://doi.org/10.1 101/2021.06.04.21258 316, https://www.medrxiv. org/content/early/20 21/06/04/2021.06.04. 21258316 https://doi.org/10.1 101/2021.06.04.21258 316, https://www.medrxiv. org/content/2021/06/ 04/2021.06.21258316 0.21
英語(論文から抽出)日本語訳スコア
12 Le Peng, Hengyue Liang, Taihui Li, and Ju Sun 12 Le Peng, Hengyue Liang, Taihui Li, Ju Sun 0.80
25. van Tulder, G., de Bruijne, M.: Combining generative and discriminative representation learning for lung ct analysis with convolutional restricted boltzmann machines. 25. van Tulder, G., de Bruijne, M.: コンボリューショナル制限ボルツマンマシンを用いた肺CT解析のための生成的および識別的表現学習の組み合わせ 0.76
IEEE transactions on medical imaging 35(5), 1262–1272 (2016) ieee transactions on medical imaging 35(5), 1262–1272 (2016) 0.78
26. Williams, C.K. 26. ウィリアムズ c.k. 0.84
: The effect of class imbalance on precision-recall curves. : クラス不均衡が精度・リコール曲線に及ぼす影響 0.82
Neural Computation 33(4), 853–857 (2021) 神経 計算33(4), 853-857 (2021) 0.69
27. Wong, H.Y.F., Lam, H.Y.S., Fong, A.H.T., Leung, S.T., Chin, T.W.Y., Lo, C.S.Y., Lui, M.M.S., Lee, J.C.Y., Chiu, K.W.H., Chung, T.W.H., et al : Frequency and distribution of chest radiographic findings in patients positive for covid-19. 27. Wong, H.Y.F., Lam, H.Y.S., Fong, A.H.T., Leung, S.T., Chin, T.W.Y., Lo, C.S.Y., Lui, M.M.S., Lee, J.C.Y., Chiu, K.W.H., Chung, T.W.H.など。 0.74
Radiology 296(2), E72–E78 (2020) 放射線医学 296(2), e72-e78 (2020) 0.73
28. Yosinski, J., Clune, J., Bengio, Y., Lipson, H.: How transferable are features in deep neural networks? 28. Yosinski, J., Clune, J., Bengio, Y., Lipson, H.: ディープニューラルネットワークでは,トランスファー可能な機能は何でしょう? 0.83
In: Proceedings of the 27th International Conference on Neural Information Processing Systems-Volume 2. pp. 第27回ニューラル情報処理システム国際会議報告-第2報- 0.50
3320–3328 (2014) 3320–3328 (2014) 0.84
29. Zeiler, M.D., Fergus, R.: Visualizing and understanding convolutional networks. 29. Zeiler, M.D., Fergus, R.: 畳み込みネットワークの可視化と理解。 0.82
In: European conference on computer vision. 院 ヨーロッパにおけるコンピュータビジョンに関する会議。 0.43
pp. 818–833. pp. 818–833. 0.78
Springer (2014) Springer (複数形 Springers) 0.60
                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。