論文の概要、ライセンス

# (参考訳) VinDr-RibCXR:胸部X線上の個々のリブの自動セグメンテーションとラベル付けのためのベンチマークデータセット [全文訳有]

VinDr-RibCXR: A Benchmark Dataset for Automatic Segmentation and Labeling of Individual Ribs on Chest X-rays ( http://arxiv.org/abs/2107.01327v1 )

ライセンス: CC BY 4.0
Hoang C. Nguyen and Tung T. Le and Hieu H. Pham and Ha Q. Nguyen(参考訳) VinDr-RibCXRと呼ばれる新しいベンチマークデータセットを導入し、胸部X線(CXR)スキャンから個々のリブの自動セグメンテーションとラベル付けを行う。 VinDr-RibCXRは245個のCXRと、それに対応する基礎的な真理アノテーションを含んでいる。 最先端セグメンテーションモデルのセットは、VinDr-RibCXRから20個の個々のリブのセグメンテーションとラベルまで196の画像に基づいて訓練される。 我々のベストパフォーマンスモデルは、49画像の独立したテストセットにおいて、0.834 (95% ci, 0.810--0.853)のサイススコアを得る。 そこで本研究では,今後の研究における概念実証とベースライン性能について述べる。

We introduce a new benchmark dataset, namely VinDr-RibCXR, for automatic segmentation and labeling of individual ribs from chest X-ray (CXR) scans. The VinDr-RibCXR contains 245 CXRs with corresponding ground truth annotations provided by human experts. A set of state-of-the-art segmentation models are trained on 196 images from the VinDr-RibCXR to segment and label 20 individual ribs. Our best performing model obtains a Dice score of 0.834 (95% CI, 0.810--0.853) on an independent test set of 49 images. Our study, therefore, serves as a proof of concept and baseline performance for future research.
公開日: Sat, 3 Jul 2021 02:36:09 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 l u J 1 2 0 2 l u J 0.85
3 ] V I . 3 ] V 私は。 0.82
s s e e [ 1 v 7 2 3 1 0 s s e [ 1 v 7 2 3 1 0 0.77
. 7 0 1 2 : v i X r a . 7 0 1 2 : v i X r a 0.85
Medical Imaging with Deep Learning – Under Review 2021 ディープラーニングによる医用イメージング - 2021年を振り返って 0.70
Short Paper – MIDL 2021 submission ショートペーパー - midl 2021の提出 0.77
VinDr-RibCXR: A Benchmark Dataset for Automatic Segmentation and Labeling of Individual Ribs on Chest vindr-ribcxr:胸部リブの自動セグメンテーションとラベリングのためのベンチマークデータセット 0.75
X-rays Hoang C. Nguyen1 Tung T. Le1 Hieu H. Pham1,2 Ha Q. Nguyen1,2 1 Medical Imaging Department, Vingroup Big Data Institute, Hanoi, Vietnam 2 College of Engineering and Computer Science, VinUniversity, Hanoi, Vietnam X線 Hoang C. Nguyen1 Tung T. Le1 Hieu H. Pham1,2 Ha Q. Nguyen1,2 1 Medical Imaging Department, Vingroup Big Data Institute, Hanoi, Vietnam 2 College of Engineering and Computer Science, VinUniversity, Hanoi, Vietnam 0.73
canhhoang30011999@gm ail.com lethanhtung.tung06@g mail.com v.hieuph4@vinbigdata .org v.hanq3@vinbigdata.o rg canhhoang3001 1999@gmail.com lethanhtung.tung06@g mail.com v.hieuph4@vinbigdata .org v.hanq3@vinbigdata.o rg 0.48
Editors: Under Review for MIDL 2021 編集部:MIDL 2021のレビュー 0.66
Abstract We introduce a new benchmark dataset, namely VinDr-RibCXR, for automatic segmentation and labeling of individual ribs from chest X-ray (CXR) scans. 概要 VinDr-RibCXRと呼ばれる新しいベンチマークデータセットを導入し、胸部X線(CXR)スキャンから個々のリブの自動セグメンテーションとラベル付けを行う。 0.56
The VinDr-RibCXR contains 245 CXRs with corresponding ground truth annotations provided by human experts. VinDr-RibCXRは245個のCXRと、それに対応する基礎的な真理アノテーションを含んでいる。 0.49
A set of state-of-the-art segmentation models are trained on 196 images from the VinDr-RibCXR to segment and label 20 individual ribs. 最先端セグメンテーションモデルのセットは、VinDr-RibCXRから20個の個々のリブのセグメンテーションとラベルまで196の画像に基づいて訓練される。 0.62
Our best performing model obtains a Dice score of 0.834 (95% CI, 0.810–0.853) on an independent test set of 49 images. 我々の最良のパフォーマンスモデルは、49の画像の独立したテストセットで0.834 (95% ci, 0.810–0.853)のサイススコアを得る。 0.64
Our study, therefore, serves as a proof of concept and baseline performance for future research. そこで本研究では,今後の研究における概念実証とベースライン性能について述べる。 0.76
Keywords: Rib segmentation, CXR, Benchmark dataset, Deep learning. キーワード:Ribセグメンテーション、CXR、ベンチマークデータセット、ディープラーニング。 0.59
1. Introduction A wide range of diagnostic tasks can benefit from an automatic system that is able to segment and label individual ribs on chest X-ray (CXR) images. 1. はじめに 幅広い診断タスクは、胸部X線(CXR)画像上に個々のリブを分割してラベル付けできる自動システムから恩恵を受けることができる。 0.74
To this end, traditional approaches (Candemir et al , 2016) exploited hand-crafted features to identify the ribs, but failed with anterior ribs. この目的のために、伝統的なアプローチ (Candemir et al , 2016) は手作りの特徴を利用してリブを識別したが、前方のリブでは失敗した。
訳抜け防止モード: この目的のために、伝統的なアプローチ(Candemir et al, 2016)は手動でリブを識別する機能を開発した。 前胸骨は失敗しました
0.59
Recently, deep learning (DL) has shown superior performance to other methods in the segmentation and labeling of individual ribs (Wessel et al , 2019). 近年,深層学習(DL)は個々のリブのセグメンテーションやラベル付けにおいて,他の手法よりも優れた性能を示している(Wessel et al , 2019)。 0.72
However, developing DL algorithms for this task requires annotated images for each rib structure at pixel-level. しかし、このタスクのためのdlアルゴリズムの開発には、各リブ構造のピクセルレベルでの注釈付き画像が必要である。
訳抜け防止モード: しかし このタスクのための dl アルゴリズムの開発は ピクセルのリブ構造ごとにアノテートされたイメージが必要です。
0.69
To the best of our knowledge, there exists no such benchmark datasets and protocols. 私たちの知る限りでは、このようなベンチマークデータセットやプロトコルはありません。 0.64
Hence, we present VinDr-RibCXR – a benchmark dataset for the automatic segmentation and labeling of individual ribs on CXRs. そこで、我々は、CXR上の個々のリブの自動セグメンテーションとラベル付けのためのベンチマークデータセットであるVinDr-RibCXRを紹介する。 0.60
This work also reports performance of several state-of-the-art DL-based segmentation models on the VinDr-RibCXR dataset. この研究は、VinDr-RibCXRデータセット上で、最先端のDLベースのセグメンテーションモデルの性能も報告している。 0.50
The dataset1 and codes2 are made publicly available to encourage new advances. dataset1とcodes2は、新しい進歩を促すために公開されている。 0.59
2. Material and Method 2.1. 2. 材料及び方法 2.1. 0.79
Dataset We built a dataset, namely VinDr-RibCXR, of 245 AP/PA CXR images for segmentation and labeling of individual ribs. データセット 我々はVinDr-RibCXRというデータセットを構築し、個々のリブのセグメンテーションとラベル付けのための245のAP/PA CXR画像を作成しました。 0.57
The raw images in DICOM format were sourced from VinDrCXR dataset (Nguyen et al , 2020), for which all scans have been de-identified to protect patient privacy. DICOMフォーマットの生画像はVinDrCXRデータセット(Nguyen et al , 2020)から得られたもので、すべてのスキャンが患者のプライバシーを保護するために特定されている。 0.74
We then designed an in-house web-based labeling tool called VinDr Lab (https://vindr.ai/vi ndr-lab) that allows to segment individual ribs at pixel-level on そして、私たちはVinDr Lab(https://vindr.ai /vindr-lab)と呼ばれる社内のWebベースのラベリングツールを設計しました。 0.59
1. https://vindr.ai/dat asets/ribcxr 2. https://github.com/v inbigdata-medical/MI DL2021-VinDr-RibCXR 1. https://vindr.ai/dat asets/ribcxr 2. https://github.com/v inbigdata-medical/MI DL2021-VinDr-RibCXR 0.31
© 2021 H.C. Nguyen, T.T. 2021 H.C. Nguyen, T.T。 0.60
Le, H.H. Pham & H.Q. H.H.。 Pham & H.Q 0.88
Nguyen. Nguyen 0.53
英語(論文から抽出)日本語訳スコア
Nguyen Le Pham Nguyen Nguyen Le Pham Nguyen 0.85
DICOM scans. DICOMスキャン。 0.68
Each image was assigned to an expert, who manually segmented and annotated each of 20 ribs, denoted as L1→L10 (left ribs) and R1→R10 (right ribs). 各画像は専門家に割り当てられ、20個のリブのそれぞれを手動で分割・注釈し、左リブのL1→L10と右リブのR1→R10と表記した。
訳抜け防止モード: 各画像は専門家に割り当てられ、手動で分割された L1→L10(左リブ)と表記される20個のリブのそれぞれに注釈を付けた R1→R10。
0.65
The masks of ribs (see Figure 1) were then stored in a JSON file that can later be used for training instance segmentation models. リブのマスク(図1参照)はjsonファイルに格納され、後にインスタンスセグメンテーションモデルのトレーニングに使用することができる。 0.72
To the best of our knowledge, the VinDr-RibCXR is the first publicly released dataset that includes segmentation annotations of the individual ribs, and for both anterior and posterior ribs. 我々の知る限りでは、VinDr-RibCXRは、個々のリブのセグメンテーションアノテーションと、前と後の両方のリブに関する最初の公開データセットである。 0.71
To develop and evaluate segmentation algorithms, we divided the whole dataset into a training set of 196 images and a validation set of 49 images. セグメンテーションアルゴリズムを開発し評価するために,データセット全体を196画像のトレーニングセットと49画像の検証セットに分割した。 0.79
2.2. Model development 2.2. モデル開発 0.76
We deployed various state-of-the-art DL-based segmentation models for the task of individual rib segmentation and labeling, including U-Net (Ronneberger et al , 2015), U-Net with EfficientNet-B0 (Tan and Le, 2019), Feature Pyramid Network (FPN) (Lin et al , 2017) with EfficientNet-B0, and U-Net++ with EfficientNet-B0. U-Net (Ronneberger et al , 2015), U-Net with EfficientNet-B0 (Tan and Le, 2019), Feature Pyramid Network (FPN) with EfficientNet-B0, U-Net++ with EfficientNet-B0。
訳抜け防止モード: 個々のリブのセグメンテーションとラベル付けのタスクのための,様々な状態--------アートDL-ベースのセグメンテーションモデルを構築した。 U - Net (Ronneberger et al, 2015)を含む。 U- Net with EfficientNet - B0 (Tan and Le, 2019 ) Feature Pyramid Network (FPN ) ( Lin et al, 2017 ) with EfficientNet - B0, and U - Net++ with EfficientNet - B0。
0.69
These models are well-known to be effective for many medical image segmentation tasks. これらのモデルは多くの医療画像分割作業に有効であることが知られている。 0.62
To train the networks, we resized all training images to 512×512 pixels. ネットワークをトレーニングするために、トレーニング画像を512×512ピクセルにリサイズしました。 0.65
Dice loss and Adam optimizer were used to optimize the network’s parameters. Dice LosとAdam Optimizationrは、ネットワークのパラメータの最適化に使われた。 0.85
All models were trained for 200 epochs with a learning rate of 1e − 3. すべてのモデルは1e − 3の学習率で200エポックのトレーニングを受けた。 0.77
Some augmentation techniques (i.e. いくつかの強化技術(例) 0.63
horizontal flip, shift, scale, rotate, and random brightness contrast) were applied to avoid overfitting. オーバーフィッティングを避けるために水平フリップ、シフト、スケール、回転、ランダム輝度コントラストが適用された。 0.74
The models were implemented using Pytorch (v1.7.1) and trained on a NVIDIA RTX 2080 Ti GPU. モデルはPytorch (v1.7.1)を使用して実装され、NVIDIA RTX 2080 Ti GPUでトレーニングされた。 0.66
3. Evaluation and Result The effectiveness of the segmentation models was evaluated by Dice score, 95% Hausdorff distance (95% HD), sensitivity, and specificity. 3. 評価と結果 セグメンテーションモデルの有効性は, diceスコア, 95%ハウスドルフ距離 (95% hd), 感度, 特異性を用いて評価した。 0.80
Experimental results reported by the proposed segmentation models are shown in Table 1. 提案したセグメンテーションモデルによる実験結果を表1に示す。 0.80
Our best performing model, which was Nested U-Net with EfficientNet-B0 encoder, achieved a Dice score of 0.834 (95% CI, 0.810– 0.853), a 95% HD of 15.453 (95% CI, 13.340–17.450), a sensitivity of 0.841 (95% CI, 0.812– 0.858), and a specificity 0.998 (95% CI, 0.997–0.998). Nested U-Net with EfficientNet-B0 encoderでは、Diceスコアが0.834(95% CI, 0.810– 0.853)、95%HDが15.453(95% CI, 13.340–17.450)、0.841(95% CI, 0.812– 0.858)、特異性が0.998(95% CI, 0.997–0.998)であった。 0.74
Figure 1 shows segmentation and labeling results of the Nested U-Net on some representative cases from the validation set of VinDr-RibCXR and external datasets including JSRT and Shenzen. 図1は、VinDr-RibCXRの検証セットとJSRTやShenzenを含む外部データセットから、Nested U-Netのセグメンテーションとラベル付け結果を示しています。 0.70
We observe that the algorithm correctly segmented the individual ribs on both normal and abnormal CXR scans, for both the VinDr-RibCXR and two external datasets. 我々は,VinDr-RibCXRと2つの外部データセットに対して,正常なCXRスキャンと異常なCXRスキャンの両方で個々のリブを正しく分割した。 0.63
Although the abnormal CXR contains ribs that are obscured by lung abnormalities, the proposed algorithm still produced a considerably accurate segmentation mask for all ribs. 異常なcxrは肺の異常によって隠蔽されたリブを含んでいるが、提案アルゴリズムは全てのリブに対してかなり正確なセグメンテーションマスクを生成する。
訳抜け防止モード: 異常なCXRは肺の異常によって隠蔽されるリブを含む。 提案されたアルゴリズムは 全てのリブに対して かなり正確なセグメンテーションマスクを作成した
0.66
Table 1: Segmentation performance on the validation set of VinDr-RibCXR. 表1:VinDr-RibCXRの検証セットにおけるセグメンテーション性能 0.78
Model U-Net U-Net w. EfficientNet-B0 FPN w. EfficientNet-B0 モデルU-Net U-Net w. EfficientNet-B0 FPN w. EfficientNet-B0 0.57
U-Net++ w. EfficientNet-B0 U-Net++ w.EfficientNet-B0 0.35
Dice .765 (.737–.788) .829 (.808–.847) .807 (.773–.824) .834 (.810–.853) サイコロ .765 (.737–.788) .829 (.808–.847) .807 (.773–.824) .834 (.810–.853) 0.51
95% HD Sensitivity Specificity 95%hd 感度 特異性 0.69
28.038 (22.449–34.604) 16.807 (14.372–19.539) 15.049 (13.190–16.953) 15.453 (13.340–17.450) 28.038 (22.449–34.604) 16.807 (14.372–19.539) 15.049 (13.190–16.953) 15.453 (13.340–17.450) 0.41
.773 (.738–.791) .844 (.818–.858) .808 (.773–.828) .841 (.812–.858) .773 (.738–.791) .844 (.818–.858) .808 (.773–.828) .841 (.812–.858) 0.54
.996 (.996–.997) .998 (.997–.998) .997 (.997–.998) .998 (.997–.998) .996 (.996–.997) .998 (.997–.998) .997 (.997–.998) .998 (.997–.998) 0.54
4. Conclusion In this work, we introduced a new benchmark dataset and baseline predictive models for automatically segmenting and labeling individual ribs from chest radiographs. 4. 結論 本研究では胸部x線写真から個々のリブの自動分割とラベル付けを行うベンチマークデータセットとベースライン予測モデルを導入した。 0.73
Our experimental results have shown the effectiveness of the DL-based segmentation models for this task. 実験により,本課題に対するDLベースセグメンテーションモデルの有効性が示された。 0.70
This study serves as a proof of concept and baseline performance for future research. 本研究は,今後の研究における概念と基礎的業績の証明となる。 0.73
2 2 0.85
英語(論文から抽出)日本語訳スコア
Automatic Segmentation and Labeling of Individual Ribs on CXRs CXR上の個々のリブの自動分割とラベル付け 0.77
Future works include investigating more powerful DL models and extending the dataset to enhance the segmentation performance. 今後の作業には、より強力なDLモデルの調査や、セグメンテーションのパフォーマンス向上のためにデータセットの拡張が含まれる。 0.58
Figure 1: Segmentation results on our validation set and two external datasets. 図1: 検証セットと2つの外部データセットのセグメンテーション結果。 0.78
5. Acknowledgements This research was supported by the Vingroup Big Data Institute. 5. 覚書 この研究はVingroup Big Data Instituteによって支援された。 0.68
We are especially thankful to Tien D. Phan, Dung T. Le, and Chau T.B. 特に、Tien D. Phan、Dung T. Le、Chau T.Bに感謝しています。 0.64
Pham for their help during the data annotation process. データアノテーションプロセスにおける彼らの助けに感謝します。 0.54
References Sema Candemir, Stefan Jaeger, Sameer Antani, Ulas Bagci, Les R Folio, Ziyue Xu, and George Thoma. 参考文献 Sema Candemir, Stefan Jaeger, Sameer Antani, Ulas Bagci, Les R Folio, Ziyue Xu, George Thoma 0.68
Atlas-based rib-bone detection in chest X-rays. 胸部X線におけるAtlas-based rib-bone detection 0.59
Computerized Medical Imaging and Graphics, 51:32–39, 2016. Computerized Medical Imaging and Graphics, 51:32–39, 2016 0.89
Tsung-Yi Lin, Piotr Doll´ar, Ross Girshick, Kaiming He, Bharath Hariharan, and Serge Belongie. Tsung-Yi Lin, Piotr Doll ́ar, Ross Girshick, Kaiming He, Bharath Hariharan, Serge Belongie 0.83
Feature pyramid networks for object detection. 物体検出のための特徴ピラミッドネットワーク 0.81
In IEEE Conference on Computer Vision and Pattern Recognition, pages 2117–2125, 2017. IEEE Conference on Computer Vision and Pattern Recognition, page 2117–2125, 2017。 0.85
Ha Q Nguyen, Khanh Lam, Linh T Le, Hieu H Pham, Dat Q Tran, Dung B Nguyen, Dung D Le, Chi M Pham, Hang TT Tong, Diep H Dinh, et al VinDr-CXR: An open dataset of chest X-rays with radiologist’s annotations. Ha Q Nguyen, Khanh Lam, Linh T Le, Hieu H Pham, Dat Q Tran, Dung B Nguyen, Dung D Le, Chi M Pham, Hang TT Tong, Diep H Dinh, et al VinDr-CXR: 放射線学者のアノテーションによる胸部X線のオープンデータセット。 0.85
arXiv preprint arXiv:2012.15029, 2020. arXiv preprint arXiv:2012.15029, 2020 0.81
Olaf Ronneberger, Philipp Fischer, and Thomas Brox. Olaf Ronneberger、Philipp Fischer、Thomas Brox。 0.69
U-net: Convolutional networks for biomedical image segmentation. U-net: バイオメディカルイメージセグメンテーションのための畳み込みネットワーク。 0.78
In International Conference on Medical Image Computing and Computer-assisted Intervention, pages 234–241. International Conference on Medical Image Computing and Computer-assisted Intervention, page 234–241。 0.92
Springer, 2015. Mingxing Tan and Quoc Le. 2015年、春。 Mingxing TanとQuoc Le。 0.62
Efficientnet: Rethinking model scaling for convolutional neural Efficientnet:畳み込みニューラルネットワークのモデルスケーリング再考 0.70
networks. In International Conference on Machine Learning, pages 6105–6114, 2019. ネットワーク。 International Conference on Machine Learning, page 6105–6114, 2019。 0.79
J¨oran Wessel, Mattias P Heinrich, Jens von Berg, Astrid Franz, and Axel Saalbach. j・ショラン・ヴェッセル、マティアス・プ・ハインリッヒ、イェンス・フォン・ベルク、アストリッド・フランツ、アクセル・サールバッハ。 0.48
Sequential rib labeling and segmentation in chest X-ray using Mask R-CNN. Mask R-CNNを用いた胸部X線における連続リブラベリングとセグメンテーション 0.63
arXiv preprint arXiv:1908.08329, 2019. arXiv preprint arXiv:1908.08329, 2019 0.81
3 3 0.85
       ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。