論文の概要、ライセンス

# (参考訳) anatomy x-net : 胸部疾患分類のための半教師付き畳み込みニューラルネットワーク [全文訳有]

Anatomy X-Net: A Semi-Supervised Anatomy Aware Convolutional Neural Network for Thoracic Disease Classification ( http://arxiv.org/abs/2106.05915v1 )

ライセンス: CC BY 4.0
Uday Kamal, Mohammad Zunaed, Nusrat Binta Nizam, Taufiq Hasan(参考訳) 深層学習法を用いた胸部x線写真からの胸部疾患の検出は,過去10年間,活発に研究されてきた。 これまでの手法のほとんどは、モデルの予測に重要な貢献をした空間領域を同定することで、画像の病的な臓器に焦点を当てようとするものである。 対照的に、専門家の放射線学者は、これらの領域が異常かどうかを決定する前に、まず顕著な解剖学的構造を見つける。 したがって、ディープラーニングモデルに解剖学的知識を統合することで、自動疾患分類が大幅に改善される可能性がある。 本研究は,事前同定された解剖領域によって誘導される空間的特徴を優先する解剖学的アウェアメントベースアーキテクチャanatomy x-netを提案する。 臓器レベルのアノテーションを含むjsrtデータセットを用いた半教師あり学習法を用いて,nihおよびchexpertデータセットの解剖学的分節マスク(肺と心臓用)を得る。 提案する解剖学 x-net では,事前学習された densenet-121 を,解剖学的注意学習のためのコヒーシブフレームワークとして anatomy aware attention (aaa) と probabilistic weighted average pooling (pwap) という2つの構造モジュールを備えたバックボーンネットワークとして使用する。 提案手法は,AUCスコア0.8439のNIHテストセットに新たな最先端性能を設定し,解剖学的セグメンテーション知識を用いて胸部疾患分類を改善することの有効性を示した。 さらに、Anatomy X-NetはStanford CheXpertデータセット上で平均0.9020のAUCを生成し、提案フレームワークの一般化可能性を示す既存の手法を改善した。

Thoracic disease detection from chest radiographs using deep learning methods has been an active area of research in the last decade. Most previous methods attempt to focus on the diseased organs of the image by identifying spatial regions responsible for significant contributions to the model's prediction. In contrast, expert radiologists first locate the prominent anatomical structures before determining if those regions are anomalous. Therefore, integrating anatomical knowledge within deep learning models could bring substantial improvement in automatic disease classification. This work proposes an anatomy-aware attention-based architecture named Anatomy X-Net, that prioritizes the spatial features guided by the pre-identified anatomy regions. We leverage a semi-supervised learning method using the JSRT dataset containing organ-level annotation to obtain the anatomical segmentation masks (for lungs and heart) for the NIH and CheXpert datasets. The proposed Anatomy X-Net uses the pre-trained DenseNet-121 as the backbone network with two corresponding structured modules, the Anatomy Aware Attention (AAA) and Probabilistic Weighted Average Pooling (PWAP), in a cohesive framework for anatomical attention learning. Our proposed method sets new state-of-the-art performance on the official NIH test set with an AUC score of 0.8439, proving the efficacy of utilizing the anatomy segmentation knowledge to improve the thoracic disease classification. Furthermore, the Anatomy X-Net yields an averaged AUC of 0.9020 on the Stanford CheXpert dataset, improving on existing methods that demonstrate the generalizability of the proposed framework.
公開日: Thu, 10 Jun 2021 17:01:23 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 Anatomy X-Net: A Semi-Supervised Anatomy 1 anatomy x-net:半教師付き解剖学 0.75
Aware Convolutional Neural Network for Thoracic 胸部における畳み込みニューラルネットワーク 0.53
Disease Classification Uday Kamal, Mohammad Zunaed, Nusrat Binta Nizam, and Taufiq Hasan, Senior Member, IEEE 病の分類 Uday Kamal, Mohammad Zunaed, Nusrat Binta Nizam, Taufiq Hasan, IEEE 0.71
1 2 0 2 n u J 1 2 0 2 n u J 0.85
0 1 ] V 0 1 ] V 0.85
I . s s e e [ 私は。 s s e [ 0.71
1 v 5 1 9 5 0 1 v 5 1 9 5 0 0.85
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Abstract—Thoracic disease detection from chest radiographs using deep learning methods has been an active area of research in the last decade. 抽象化 — 深層学習を用いた胸部X線写真からのThoracic disease detectionは、過去10年間に活発な研究領域であった。 0.65
Most previous methods attempt to focus on the diseased organs of the image by identifying spatial regions responsible for significant contributions to the model’s prediction. 従来の手法のほとんどは、モデルの予測に重要な貢献をした空間領域を識別することで、画像の病気の臓器に焦点を当てようとしている。
訳抜け防止モード: 従来の手法では 画像の病気の臓器に焦点を合わせ モデル予測に重要な貢献を担っている空間領域を特定すること。
0.72
In contrast, expert radiologists first locate the prominent anatomical structures before determining if those regions are anomalous. 対照的に、専門家の放射線学者は、これらの領域が異常かどうかを決定する前に、まず顕著な解剖学的構造を見つける。 0.42
Therefore, integrating anatomical knowledge within deep learning models could bring substantial improvement in automatic disease classification. したがって、ディープラーニングモデルに解剖学的知識を統合することで、自動疾患分類が大幅に改善される可能性がある。
訳抜け防止モード: したがって、ディープラーニングモデルにおける解剖学的知識の統合 自動疾患分類の大幅な改善が期待できます
0.72
This work proposes an anatomyaware attention-based architecture named Anatomy X-Net, that prioritizes the spatial features guided by the pre-identified anatomy regions. 本研究は,事前同定された解剖領域によって誘導される空間的特徴を優先するanatomy x-netというアテンションベースアーキテクチャを提案する。 0.64
We leverage a semi-supervised learning method using the JSRT dataset containing organ-level annotation to obtain the anatomical segmentation masks (for lungs and heart) for the NIH and CheXpert datasets. 臓器レベルのアノテーションを含むjsrtデータセットを用いた半教師あり学習法を用いて,nihおよびchexpertデータセットの解剖学的分節マスク(肺と心臓用)を得る。 0.71
The proposed Anatomy XNet uses the pre-trained DenseNet-121 as the backbone network with two corresponding structured modules, the Anatomy Aware Attention (AAA) and Probabilistic Weighted Average Pooling (PWAP), in a cohesive framework for anatomical attention learning. 提案したAnatomy XNetは,AAA(Anatomy Aware Attention)とPWAP(Probabilistic Weighted Average Pooling)という2つの構造化モジュールを備えた,事前学習されたDenseNet-121をバックボーンネットワークとして,解剖学的注意学習のための結合フレームワークとして使用している。 0.64
Our proposed method sets new state-of-the-art performance on the official NIH test set with an AUC score of 0.8439, proving the efficacy of utilizing the anatomy segmentation knowledge to improve the thoracic disease classification. 提案手法は,AUCスコア0.8439のNIHテストセットに新たな最先端性能を設定し,解剖学的セグメンテーション知識を用いて胸部疾患分類を改善することの有効性を示した。 0.83
Furthermore, the Anatomy X-Net yields an averaged AUC of 0.9020 on the Stanford CheXpert dataset, improving on existing methods that demonstrate the generalizability of the proposed framework. さらに、Anatomy X-NetはStanford CheXpertデータセット上で平均0.9020のAUCを生成し、提案フレームワークの一般化可能性を示す既存の手法を改善した。 0.66
Index Terms—Semi-supervised learning, anatomy-aware atten- 索引項 -半教師学習, 解剖学- 0.52
tion, lung and heart attention vectors. 運動、肺、心臓の注意ベクトル。 0.72
I. INTRODUCTION C HEST radiography (CXR) is the most commonly used I 導入 C HESTラジオグラフィ(CXR)が最も一般的に用いられる。 0.59
primary screening tool for assessing thoracic diseases such as pneumonia, pneumothorax, pulmonary edema, consolidation, infiltration, emphysema, and pleural effusions [1]. 肺炎、気胸、肺浮腫、凝縮、浸潤、気腫、胸水などの胸部疾患を評価するための一次スクリーニングツール[1]。 0.59
Each year a massive number of CXRs are produced, and the diagnosis is performed mainly by radiologists. 毎年大量のcxrが生産され、診断は主に放射線科医によって行われている。 0.72
Diagnosis of CXRs requires a high degree of skills and concentration. CXRの診断には高度な技術と集中が必要である。 0.78
With the severe shortage of expert radiologists, especially in developing countries, computer-aided disease detection from chest radiographs is considered the future of medical diagnosis [2], [3]. 高度に専門的な放射線技師の不足,特に発展途上国では,胸部X線写真によるコンピュータ支援による疾患検出が医療診断の未来であると考えられる〔3〕。 0.74
Advancement in deep learning and artificial intelligence offers several ways of rapid, accurate, and reliable screening techniques [4]. ディープラーニングと人工知能の進歩は、迅速で正確で信頼性の高いスクリーニング技術を提供する [4]。 0.69
These techniques can significantly impact the health systems in the resource-constrained regions of the world これらの技術は、世界の資源制限地域における健康システムに大きな影響を与える 0.77
Uday kamal, Mohammad Zunaed, Nusrat Binta Nizam, ウデイ kamal, Mohammad Zunaed, Nusrat Binta Nizam 0.67
and Taufiq Hasan are with the Department of Biomedical Engineering, Bangladesh University of Engineering and Technology, Dhaka-1205, Bangladesh. そしてtaufiq hasanはバングラデシュのdhaka-1205にあるバングラデシュ工科大学の生物医学工学部に所属している。 0.64
rafizunaed@gmail.com, nusratbintanizam023@ gmail.com, taufiq@bme.buet.ac.bd.) rafizunaed@gmail.com , nusratbintanizam023@ gmail.com, taufiq@bme.buet.ac.b d.) 0.66
(e-mails: udday2014@gmail.com, (電子メール) udday 2014@gmail.com 0.74
Fig. 1: Overview of the proposed semi-supervised anatomyaware attention-based thoracic disease classification framework. フィギュア。 1: 半教師付き解剖学的注意に基づく胸部疾患分類フレームワークの概要。 0.58
A semi-supervised technique is utilized to generate anatomy masks for unannotated CXR images. 半教師付き手法を用いて無注釈CXR画像の解剖マスクを生成する。 0.64
Then, with the help of our proposed novel anatomy-aware attention module, anatomical information is integrated into the classification network for pathology detection. そして,本提案の解剖学的注意モジュールを用いて,病理診断のための分類網に解剖学的情報を統合する。 0.81
where there is a high prevalence of thoracic diseases and a shortage of expert radiologists. 胸部疾患の頻度が高く 専門の放射線技師が不足しています 0.60
Driven by many publicly accessible large-scale CXR datasets, a significant amount of research efforts have been carried out for the automatic diagnosis of thoracic diseases. 多くの大規模CXRデータセットによって駆動され、胸部疾患の自動診断のためのかなりの研究努力がなされている。 0.78
Wang et al [5] first announced the ChestX-ray14 dataset and proposed a unified weakly-supervised classification network by introducing various multi-label DCNN losses based on ImageNet [6] pre-trained deep CNN models [7], [8], [9]. Wang氏らは当初、ChestX-ray14データセットを発表し、ImageNet [6] で事前訓練された深層CNNモデル [7], [8], [9] に基づいて、様々なマルチラベルDCNN損失を導入して、弱い教師付き分類ネットワークを提案した。
訳抜け防止モード: wangら[5 ]が胸部-ray14データセットを最初に発表した そして,imagenet [6 ] pre-trained deep cnnモデルに基づくマルチラベルdcnn損失の導入により,統一された弱教師付き分類ネットワークを提案する [7 ]。 [ 8 ] , [ 9 ] .
0.75
Tang et al [10] used an attention-guided curriculum learning method to identify the disease category and localize the lesion areas. Tang et al [10]は、注意誘導型カリキュラム学習法を用いて、疾患のカテゴリを特定し、病変領域をローカライズした。 0.61
LLAGnet [11] is a novel lesion location attention guided network containing two corresponding attention modules which focus on the discriminative features from lesion areas for multi-label thoracic disease classification in CXRs. LLAGnet[11]は,CXRのマルチラベル胸部疾患分類のための病変領域からの識別的特徴に着目した2つの注意モジュールを含む新規な病変位置注意誘導ネットワークである。 0.82
Guan et al [12] proposed a category-wise residual attention learning (CRAL) framework for multi-label thoracic disease classification, which can suppress the obstacles of irrelevant classes by endowing small weights to the corresponding feature maps. guan et al [12] は多層胸部疾患分類のためのカテゴリー別残留注意学習(cral)フレームワークを提案した。
訳抜け防止モード: Guan et al [12 ] はマルチラベル胸部疾患分類のためのカテゴリー-賢明な注意学習(CRAL)フレームワークを提案した。 これは、対応する特徴写像に小さな重みを付与することで、無関係なクラスの障害を抑制することができる。
0.63
In [13], Wang et al proposed a DenseNet-121 based triple learning approach that integrates three attention modules which are unified for channel-wise, element-wise, and scalewise attention learning. 13]では,チャンネルワイド,要素ワイド,スケールワイドの3つの注目モジュールを統合したDenseNet-121ベースの3重学習手法を提案した。 0.67
In medical practice, interpretation of chest X-rays, or any 医学において,胸部x線を解釈すること 0.65
ImagesAnatomy MasksLungHeartDeep ClassificationAnatom yAwareAttentionPWAPP redictionSegmentatio nClassification* PWAP: Probabilistic Weighted Average PoolingSemi-Supervis ed Segmentation Images Anatomy MasksLungHeartDeep ClassificationAnatom yAwareAttentionPWAPP redictionSegmentatio n Classification* PWAP: Probabilistic Weighted Average PoolingSemi-Supervis ed Segmentation 0.27
英語(論文から抽出)日本語訳スコア
other medical imaging modalities for that matter, requires an understanding of the relevant human anatomy that is being imaged. その他の医学的画像モダリティは、画像化されている人間解剖の理解を必要とする。 0.74
For example, fundamental analysis of chest X-rays involves the radiologist determining if the trachea is central, the lungs are uniformly expanded, the lung fields are clear, and the heart size is normal [14]. 例えば、胸部X線の基礎解析では、気管が中心であり、肺が一様に拡張され、肺野がクリアで、心臓の大きさが正常かどうかを放射線医が判断する[14]。 0.66
These and other similar observations form the basis of CXR interpretation by human vision, where it is clear that knowledge of anatomical structures is vital. これらや他の類似した観察は、人間の視覚によるCXR解釈の基礎を形成し、解剖学的構造に関する知識が不可欠であることは明らかである。 0.68
However, most previous research works in automated analysis of CXRs do not consider this aspect and address the problem as any other computer vision problem. しかし、CXRの自動解析におけるほとんどの研究は、この側面を考慮せず、他のコンピュータビジョン問題としてこの問題に対処している。 0.67
Most previous methods employed a global learning strategy [5], [15], or relied on attention mechanisms [10], [11], [16], that try to determine the spatial regions that are more responsible for model prediction. これまでの手法では、モデル予測により責任のある空間領域を決定するために、グローバル学習戦略 [5], [15] または注意機構 [10], [11], [16] を使用していた。 0.72
For thoracic disease classification, a lesion region is often associated with important anatomical regions, and therefore, incorporating anatomy-related information within deep learning models can potentially improve classification performance. 胸部疾患の分類では、病変領域は重要な解剖学的領域と関連していることが多いため、深層学習モデルに解剖学的情報を組み込むことで分類性能が向上する可能性がある。 0.70
This paper proposes an anatomy-aware attention-based architecture named Anatomy X-Net that utilizes the anatomy segmentation information along with CXRs to classify thoracic diseases. 本稿では, 解剖学的分類情報とCXRを用いて胸部疾患の分類を行う, 解剖学的注意に基づくアーキテクチャAnatomy X-Netを提案する。 0.69
We adopt Densenet-121 as the backbone network and incorporate two structured modules called Anatomy Aware Attention (AAA) and Probabilistic Weighted Average Pooling (PWAP) in a united framework for anatomy information learning. 我々は、deepnet-121をバックボーンネットワークとして採用し、anatomy aware attention(aaa)とprobabilistic weighted average pooling(pwap)と呼ばれる2つの構造化モジュールを解剖情報学習統合フレームワークに組み込んだ。 0.67
The AAA module reinforces the sensitivity of the different stages of the model location responsible for a thoracic disease. AAAモジュールは、胸部疾患の原因となるモデル位置の異なるステージの感度を強化する。 0.63
A significant challenge to integrate anatomy information into the framework is the lack of proper contour-level anatomy region annotations for large-scale datasets such as NIH [5], and CheXpert [17]. フレームワークに解剖情報を統合するための重要な課題は、nih[5]やchexpert[17]のような大規模データセットのための適切な輪郭レベルの解剖領域アノテーションがないことだ。 0.68
To solve this problem, we leverage a semi-supervised learning technique [18] that uses the Japanese Society of Radiological Technology (JSRT) [19] dataset to generate the anatomy segmentation masks for the NIH and CheXpert datasets. この問題を解決するために,日本放射線技術学会 [JSRT) [19] データセットを用いた半教師付き学習手法 [18] を用いて,NIH と CheXpert データセットの解剖学的セグメンテーションマスクを生成する。 0.85
An overview of our proposed framework is presented in Fig 1. 提案フレームワークの概要はfig 1.1で発表します。 0.63
The contributions of this paper are summarized as follows: 本論文の貢献は以下のとおりである。 0.78
to prioritize the anatomical anatomical (複数形 anatomicals) 0.47
• We propose novel hierarchical feature-fusion-based AAA modules that calibrate the feature maps in different stages of the model based on anatomy segmentation knowledge to improve the classification performance. • 分類性能を向上させるために解剖学セグメント化知識に基づいて,モデルの異なる段階の機能マップを校正する階層型機能融合型aaaモジュールを提案する。 0.78
• We incorporate novel PWAP pooling modules that tweak •新しいPWAPプールモジュールを組み込んで調整する。 0.75
the relevant areas of the feature space before pooling. プールする前の特徴空間の関連領域。 0.63
• Our Anatomy X-Net achieves new state-of-the-art performance with an AUC score of 0.8439 on the official NIH test set, demonstrating the efficacy of utilizing the anatomy segmentation knowledge to improve the thoracic disease classification. • 解剖学的X-Netは,AUCスコア0.8439を公式NIHテストセットで達成し,解剖学的セグメンテーション知識を活用した胸部疾患分類の改善の有効性を示した。 0.83
Our Anatomy X-Net reaches the average AUC score of 0.9020 on the official validation split of the Stanford CheXpert dataset, which demonstrates the generalizability of our proposed framework. 我々の解剖学的X-Netは、Stanford CheXpertデータセットの公式検証分割で平均AUCスコア0.9020に達し、提案フレームワークの一般化可能性を示している。 0.68
II. RELATED WORK A. II。 関連作業 A。 0.69
Organ Segmentation from Chest Radiographs 胸部x線画像からの臓器分画 0.54
There are several methods for organ segmentation from a CXR image. CXR画像から臓器のセグメンテーションを行う方法はいくつかある。 0.76
A hybrid approach by Shao et al [20], combining active shape and appearance models, achieved a Jaccard score shao et al [20] によるアクティブな形状と外観モデルを組み合わせた jaccard スコアのハイブリッドアプローチ 0.71
2 of 0:946 on the Segmentation in Chest Radiographs (SCR) dataset [21]. 2 0:946 on the Segmentation in Chest Radiographs (SCR) dataset [21]。 0.81
Ibragimov et al [22] combined landmark-based segmentation and a random forest classifier to achieve an overlap score of 0:953. Ibragimov et al [22] combined a random forest classifier to achieve a overlap score of 0:953。 0.68
Xu et al [23] proposed an active shape framework addressing the initialization dependency of these models that achieved an overlay score of 0:954. Xuら[23]は、オーバーレイスコア0:954を達成したこれらのモデルの初期化依存性に対処するアクティブな形状フレームワークを提案した。 0.70
In the advent of deep learning, Convolutional neural network (CNN) based segmentation of medical images has attracted wider attention of researchers. 深層学習の出現に伴い、畳み込みニューラルネットワーク(CNN)に基づく医療画像のセグメンテーションが研究者の注目を集めている。 0.83
An end-to-end contour-aware CNNbased segmentation method is shown to provide organ contour information and improve the segmentation accuracy [24]. 臓器の輪郭情報を提供し、その分節精度を向上するエンドツーエンドの輪郭認識CNNベースの分節法を示す。 0.58
In [25], lung segmentation is performed from CXRs using Generative adversarial networks (GAN). 25]では、ジェネレーティブ・敵ネットワーク(GAN)を用いて、CXRから肺セグメンテーションを行う。 0.73
However, this model is not generalizable to new datasets. しかし、このモデルは新しいデータセットに一般化できない。 0.75
Two-stage deep learning techniques such as patch classification and reconstruction of lung fields can be used for lung segmentation from CXR images [26]. CXR画像からの肺分画にパッチ分類や肺野再構成などの2段階の深層学習技術を用いることができる[26]。 0.83
The U-net architecture is used for the detection and segmentation of pneumothorax on CXRs [27]. u-net アーキテクチャは cxrs [27] 上の pneumothorax の検出とセグメンテーションに使用される。 0.72
In [28], an adaptive preprocessing with CNN is used for the segmentation of lung on contrast-enhanced binarized images. 28]では、コントラスト強調画像における肺の分節化にcnnを用いた適応前処理を用いる。 0.79
B. Disease Classification from Chest Radiographs B。 胸部X線写真からの疾患分類 0.69
Many signal processing and deep learning approaches have been proposed to classify thoracic diseases in recent years. 近年,胸部疾患の分類に多くの信号処理や深層学習手法が提案されている。 0.79
Wang et al [5] utilized the ImageNet [6], pre-trained deep CNN models, i.e., AlexNet, VGGNet [7], GoogLeNet [8], ResNet [9], to perform multi-label thoracic disease classification. Wang et al [5] は ImageNet [6], 事前訓練された深部CNNモデル,すなわち AlexNet, VGGNet [7], GoogLeNet [8], ResNet [9] を用いて, マルチラベル胸腺疾患の分類を行った。 0.84
Yao et al [29] proposed a joint variant of DenseNet [30] and Long-Short Term Memory Network (LSTM) [31] to focus on the label correlation among image labels. yao et al [29] は、イメージラベル間のラベル相関に焦点を当てるために、deepnet [30] と long- short term memory network (lstm) [31] のジョイント変種を提案した。
訳抜け防止モード: Yao et al [29 ] は DenseNet [30 ] の合同版を提案した and Long - Short Term Memory Network ( LSTM ) [31] 画像ラベル間のラベル相関に注目します
0.83
Wang et al [32] proposed the TieNet (Text Image Embedding Network), an end-to-end CNN-RNN framework, for learning to embed visual images and text reports for image classification and report generation. Wangら[32]は、画像分類とレポート生成のためのビジュアルイメージとテキストレポートの埋め込みを学ぶための、エンドツーエンドCNN-RNNフレームワークであるTieNet(Text Image Embedding Network)を提案した。 0.79
Tang et al [10] identify the disease category and localize the lesion areas through an attention-guided curriculum learning method. tangら[10]は,注意誘導型カリキュラム学習法を用いて,疾患の分類を同定し,病変領域を局在化する。 0.68
In [33], multiple feature integration is presented using shallow handcrafted techniques and a pre-trained deep CNN model. 33]では,浅い手工芸技術と事前訓練された深部CNNモデルを用いて,複数機能統合を示す。 0.71
The classification approach integrates four types of local and deep features extracted from SIFT, GIST, LBP, and HOG, and convolutional CNN features. 分類手法はSIFT, GIST, LBP, HOGから抽出した4種類の局所的特徴と深部特徴と, 畳み込みCNN特徴を統合している。 0.77
This method misses different shallow feature descriptors and in-depth features, which may include important information for classification. この方法は、分類のための重要な情報を含むかもしれない、浅い特徴記述子と深い特徴を欠いている。
訳抜け防止モード: このメソッドは、異なる浅層特徴記述子と奥行き特徴を見逃す。 分類には重要な情報が含まれます。
0.69
Segmentation-based deep fusion network (SDFN) [34] is a method that leverages the domain knowledge and the higherresolution information of local lung regions. SDFN (Segmentation-based Deep fusion Network) [34] は局所肺領域の領域知識と高分解能情報を活用する手法である。 0.82
Using Lung Region Generator (LRG), the local lung regions are identified, and discriminative features are extracted using two CNN models. 肺領域ジェネレータ(LRG)を用いて局所肺領域を同定し、2つのCNNモデルを用いて識別的特徴を抽出する。 0.78
DualCheXNet [35] is an approach that enables two different feature fusion operations, such as feature-level fusion (FLF) and decision level fusion (DLF), which form the complementary feature learning embedded in the network. dualchexnet [35]は、機能レベルの融合(flf)と決定レベルの融合(dlf)という、2つの異なる機能融合操作を可能にするアプローチである。
訳抜け防止モード: DualCheXNet [35 ]は、2つの異なる機能融合操作を可能にするアプローチです。 例えば、機能レベル融合(FLF)や決定レベル融合(DLF)などです。 ネットワークに埋め込まれた補完的な特徴学習を形成します
0.77
This complementary feature learning with two asymmetric deep CNNs is beneficial to multi-label medical image classification, but more sophisticated approaches like the anatomical approach remain unexplored. この2つの非対称深層cnnによる相補的特徴学習は、マルチラベルの医用画像分類に有用であるが、解剖学的アプローチのようなより洗練されたアプローチは未検討のままである。 0.58
LLAGnet [11] is a novel lesion location attention guided network containing two corresponding attention modules which focus on the discriminative LLAGnet[11]は、識別に焦点をあてた2つの注意モジュールを含む新規な病変位置注意誘導ネットワークである 0.79
英語(論文から抽出)日本語訳スコア
features from lesion locations for multi-label thoracic disease classification in CXRs. CXRの多ラベル胸部疾患分類における病変部位の特徴 0.86
However, in this method, the classification accuracy of “Infiltration” and “Consolidation” is not satisfactory because of various types of textures. しかし, この手法では, 各種のテクスチャにより, 「浸透」 と 「固化」 の分類精度は不十分である。 0.74
Guan et al [12] proposed a category-wise residual attention learning (CRAL) framework for multi-label thoracic disease classification. guan et al [12] は多ラベル胸部疾患分類のためのカテゴリー別残留注意学習(cral)フレームワークを提案した。 0.74
CRAL alleviates irrelevant classes by assigning small weights to the corresponding feature representations. CRALは、対応する特徴表現に小さな重みを割り当てることで、無関係なクラスを緩和する。 0.57
Rajpurkar et al [15] exploited a modified 121-layer DenseNet named CheXNet, for diagnosis of all 14 pathologies in the ChestXray14 dataset, especially for “Pneumonia”. Rajpurkar氏らは、ChestXray14データセットの14の病理、特に“肺炎”の診断のために、CheXNetという121層のDenseNetを改良した。 0.75
However, As mentioned in [15], the significance of the comparison between CheXNet and human labeling was compromised by the fact that only the frontal views of radiographs were presented to the radiologists. しかし,[15]で述べたように,放射線科医に放射線画像の正面的見解しか提示されていないことから,chexnetとヒトラベリングの比較の意義は損なわれた。 0.80
In [13], a triple learning approach integrating a unified channel-wise, element-wise, and scalewise attention modules are used. 13]では、統合されたチャンネルワイド、要素ワイド、スケールワイドアテンションモジュールを統合する3つの学習手法を用いる。 0.65
They can simultaneously learn disease-discriminati ve channels, locations, and scales for effective diagnosis. 病気の識別経路、場所、スケールを同時に学習し、効果的な診断を行うことができる。 0.52
However, the element-wise attention map is chaotic, and for this reason, the hernia case can not be classified correctly. しかし, 要素的注意マップはカオス的であり, ヘルニアの症例を正しく分類することはできない。 0.67
Yan et al [16] proposed a weakly supervised deep learning framework equipped with the squeeze and excitation blocks, multi-map transfer, and max-min pooling for classifying thoracic diseases as well as localizing suspicious lesion regions. Yan et al [16] は,胸部疾患の分類や疑似病変領域の局所化のために,圧迫・励起ブロック,マルチマップ転送,最大ミンプーリングを備えた弱教師付き深層学習フレームワークを提案した。 0.77
Luo et al [36] adopted task-specific adversarial training and an uncertainty-aware temporal ensemble of model predictions to address the domain and label discrepancies across different datasets. Luo氏ら[36]は、タスク固有の敵対的トレーニングと、ドメインに対処するモデル予測の時間的アンサンブルを採用し、異なるデータセット間での差異をラベル付けした。
訳抜け防止モード: luo et al [36 ] adopt task - specific adversarial training and an uncertainty - aware temporal ensemble of model predictions 異なるデータセットにまたがるドメインとラベルの相違に対処する。
0.86
To handle label uncertainty on the CheXpert dataset, Irvin et al [17] trained a DenseNet-121 on CheXpert with various labeling policies such as U-Ignore, U-Ones, and U-Zeros policies. CheXpertデータセットのラベルの不確実性を処理するため、Irvin氏らは、U-Ignore、U-Ones、U-Zerosポリシーなど、さまざまなラベルポリシーを使用して、CheXpert上でDenseNet-121をトレーニングした。
訳抜け防止モード: CheXpertデータセットのラベルの不確実性を処理する。 Irvin et al [17 ]はCheXpert上でDenseNet-121をトレーニングした。 U - Ones、U - Zerosのポリシー。
0.64
Pham et al [37] exploits dependencies among abnormality labels and utilized label smoothing technique for better handling of uncertain samples in the CheXpert dataset. Pham氏ら[37]は異常ラベル間の依存関係を活用し、CheXpertデータセットにおける不確実なサンプルの扱いを改善するためにラベルスムーシング技術を利用している。 0.63
A. Motivation III. A。 動機 III。 0.70
METHODOLOGY Successful implementation of deep learning-based thoracic disease classification approaches requires not only higher accuracy but also interpretability. 方法論 深層学習に基づく胸部疾患分類法の実装は,高い精度だけでなく,解釈可能性も必要である。 0.54
Real-world radiologists locate the vital anatomy regions first and then determine if those regions have abnormalities. 現実の放射線学者はまず重要な解剖学的領域を見つけ、その領域に異常があるかどうかを判断する。 0.49
None of the previous works discussed in Section II-B integrates anatomy knowledge into their framework. 第2-b節で論じられた以前の作業は、解剖学の知識をフレームワークに統合するものではない。 0.51
In this work, we aim to bridge this gap between human experts and the ML models by incorporating prior information of the anatomical regions into the network. 本稿では,解剖学領域の事前情報をネットワークに組み込むことにより,人間エキスパートとmlモデルとのギャップを埋めることを目的とする。 0.75
However, the existing annotated anatomy segmentation datasets are very small in size. しかし、既存の注釈付き解剖学的セグメンテーションデータセットは非常に小さい。 0.79
Using them in a supervised learning environment will limit the model’s generalizability. 教師付き学習環境でそれらを使用すると、モデルの一般化性が制限される。 0.58
Thus, we leverage a semi-supervised learning technique [18] that can work on a minimal amount of annotated datasets (e g , JSRT). これにより、最小限の注釈付きデータセット(jsrtなど)を処理可能な、半教師付き学習手法[18]を活用できる。 0.70
However, the imperfect mask segmentation from the semi-supervised-base d approach can pose a challenge to the classification network if they are passed as it is. しかし、半教師付きアプローチによる不完全マスクのセグメンテーションは、もしそれがそのまま受け継がれた場合、分類ネットワークに挑戦する可能性がある。 0.57
Also, we can not perform segmentation of the vital anatomy regions (e g , lung, heart) and provide only those regions as input to the network. また, 重要な解剖学的領域(例えば, 肺, 心臓)のセグメンテーションは行えず, ネットワークへの入力としてこれらの領域のみを提供する。 0.81
This will constrain the field of view for the これは、ビューのフィールドを制限します。 0.62
3 network and may lead to difficulty in learning to identify and differentiate the anatomy regions. 3 ネットワークであり、解剖領域を識別し区別する学習が困難になる可能性がある。 0.77
Therefore, we propose an anatomy-aware attention-based architecture named Anatomy X-Net that integrates anatomy segmentation knowledge into different stages of the network to prioritize the spatial regions generally responsible for the pathologies. そこで,本研究では,解剖学的セグメンテーションの知識をネットワークのさまざまな段階に統合し,一般に病理に責任を負う空間領域を優先する,解剖学的注意に基づくアーキテクチャAnatomy X-Netを提案する。
訳抜け防止モード: そこで我々は,ネットワークの異なる段階に解剖学セグメント化知識を統合する anatomy x というアーキテクチャを提案する。 病理に責任を負う空間領域を優先する。
0.77
B. Semi-supervised Anatomy Segmentation Network b.半教師付き解剖セグメンテーションネットワーク 0.65
For semi-supervised segmentation of anatomy regions, we adopted the method from [18]. 解剖学的領域の半教師付きセグメンテーションでは,[18]からこの手法を採用した。 0.70
The architecture for semisupervised segmentation is illustrated in Fig 2. 半教師付きセグメンテーションのアーキテクチャを図2に示す。 0.65
The segmentation setting contains two distinct subsets: L, containing annotated CXR images ωL and their corresponding groundtruth masks θL, and u, which contains unannotated CXR images ωu. セグメンテーション設定は、2つの異なる部分集合を含む: l, annotated cxr images ωl and their corresponding groundtruth masks θl, u, containing unannotated cxr images ωu。 0.81
The first generator (GCM ) learns a mapping from a CXR image to its anatomy segmentation masks, while the second generator (GM C) learns to map a segmentation mask to its CXR image. 第1のジェネレータ(gcm)は、cxr画像から解剖学的セグメンテーションマスクへのマッピングを学び、第2のジェネレータ(gm c)は、セグメンテーションマスクをcxr画像にマッピングすることを学ぶ。 0.76
The first discriminator (DM ) tries to differentiate these generated masks from the real segmentation masks. 最初の判別器(dm)は、これらの生成したマスクを実際のセグメンテーションマスクと区別しようとする。
訳抜け防止モード: 第一判別器(DM)の試み 生成したマスクを 本物のセグメンテーションマスクと区別する。
0.80
Similarly, the second discriminator (DC) receives a CXR image as input and predicts whether this image is real or generated. 同様に、第2判別器(DC)は、入力としてCXR画像を受信し、この画像が本物か生成されたかを予測する。 0.61
Cycle consistency loss enforces that feeding the segmentation masks generated by GCM for a CXR image into GM C returns the same CXR image. サイクル一貫性損失は、CXR画像に対してGCMが生成したセグメンテーションマスクをGM Cに供給することを強制する。 0.78
Similarly, passing back the CXR image generated by GM C to GCM for a segmentation mask returns the same mask. 同様に、gm c が生成した cxr 画像をセグメンテーションマスクの gcm に戻すと、同じマスクが返される。 0.83
C. Anatomy X-Net C. Anatomy X-Net 0.67
The proposed anatomy-aware thoracic disease classification network is illustrated in Figure 3. 提案する胸部疾患分類ネットワークを図3に示す。 0.63
We utilized transfer learning on DeneseNet-121 [30] architecture pre-trained on the ImageNet [6] and used it as our backbone model. 我々はimagenet [6]で事前学習したdenesenet-121 [30]アーキテクチャの転送学習をバックボーンモデルとして使用しました。 0.76
The backbone model compresses the raw pixel-level information present in a CXR image to a high-level feature of lower-dimensional space. バックボーンモデルは、CXR画像に存在する原画素レベル情報を低次元空間の高レベル特徴に圧縮する。 0.77
DenseNet-121 consists of four dense blocks (DB). DenseNet-121は4つの高密度ブロック(DB)から構成される。 0.56
The proposed AAA attention module operates on the highlevel feature space encoded by these DBs. AAAアテンションモジュールはこれらのDBで符号化された高レベル特徴空間で動作する。 0.64
AAA enforces attention supervision to the salient regions of the feature space guided by the anatomy segmentation masks. AAAは解剖学的セグメンテーションマスクによって導かれる特徴空間の健全な領域に注意を向ける。 0.81
Due to hardware constraints, we performed downsampling and upsampling on the anatomy segmentation masks and feature space to an intermediate shape before passing them to an AAA module. ハードウェアの制約により,解剖学的セグメンテーションマスクと特徴空間を,AAAモジュールに渡す前に中間形状にダウンサンプリングし,アップサンプリングした。 0.78
These recalibrated feature spaces from each of the AAA modules are pooled by PWAP layers and concatenated together. これらのAAAモジュールの再構成された特徴空間はPWAP層によってプールされ、結合される。 0.65
Finally, this concatenated feature vector is passed to a dense layer for pathology classification. 最後に、この連結特徴ベクトルを病理分類のために密層に渡す。 0.75
The different components of the proposed Anatomy X-Net architecture is described in the following sub-sections. 提案したAnatomy X-Netアーキテクチャの異なるコンポーネントは以下のサブセクションで説明されている。 0.67
Anatomy Aware Attention (AAA) Module: The AAA module consists of Probabilistic Weighted Average Pooling (PWAP) modules, attention vector encoders, and batch normalization layers [38]. Anatomy Aware Attention (AAA) Module: AAAモジュールは、確率的重み付き平均プール(PWAP)モジュール、アテンションベクトルエンコーダ、バッチ正規化レイヤ[38]で構成されている。 0.80
It takes the upsampled high-level feature maps (H×W×C) generated by the backbone model and the downsampled anatomy segmentation masks (H×W×2) as inputs. バックボーンモデルによって生成されたアップサンプリングされた高レベル特徴写像 (H×W×C) と、ダウンサンプリングされた解剖学的セグメンテーションマスク (H×W×2) を入力とする。 0.61
Using a PWAP module, the feature map is pooled to a 1×1×C dimension feature vector V . PWAPモジュールを使用すると、特徴写像は 1×1×C 次元特徴ベクトル V にプールされる。 0.77
This feature vector V is then passed through three different attention vector この特徴ベクトル V は3つの異なる注意ベクトルに渡される 0.87
英語(論文から抽出)日本語訳スコア
4 Fig. 2: Overview of the semi-supervised anatomy segmentation architecture. 4 フィギュア。 2:半教師付き解剖学セグメンテーションアーキテクチャの概要。 0.68
The pipeline contains four networks that are trained simultaneously. パイプラインには、同時にトレーニングされる4つのネットワークが含まれている。 0.53
encoders to get the attention vectors A. 注意ベクトルAを取得するエンコーダ。 0.70
The attention vector encoders are inspired by the “Squeeze-and-Excitati on” (SE) block [39]. 注目ベクトルエンコーダは“Squeeze-and-Excitati on”(SE)ブロック[39]にインスパイアされる。 0.86
To introduce bottleneck, feature vector V is first squeezed into dimension 1×1×(C/r) and later excited back to 1×1×C. ボトルネックを起こすために、特徴ベクトルVをまず次元1×1×(C/r)に絞り、その後1×1×Cに励起する。 0.60
Here, r is the reduction ratio. ここで r は還元比である。 0.74
Two AAA modules are used in the Anatomy X-Net. 2つのAAAモジュールが解剖学的X-Netで使用されている。 0.52
The first AAA module is used on the feature map encoded by DB-3. 最初のAAAモジュールはDB-3でエンコードされたフィーチャーマップで使用される。 0.68
For this module, the value of C is 512, and r is 0.5. このモジュールの場合、C の値は 512 であり、r は 0.5 である。 0.80
The second AAA module is used on the feature space derived from the DB-4. 第2のAAAモジュールはDB-4から派生した特徴空間で使用される。 0.77
For this module, C is 1024, and r is 0.5. この加群 c は 1024 であり、r は 0.5 である。 0.68
The detailed architecture of an attention vector encoder module is described in the Table I. 注意ベクトルエンコーダモジュールの詳細なアーキテクチャはテーブルIに記載されている。 0.83
From these three attention vector encoders, we get three feature vectors A, each having a dimension of 1×1×C. これら3つの注意ベクトルエンコーダから、3つの特徴ベクトルaが得られ、それぞれ1×1×cの次元を持つ。
訳抜け防止モード: これら3つの注意ベクトルエンコーダから、3つの特徴ベクトル a, それぞれ1×1×cの次元を持つ。
0.79
Next, softmax is applied on these three attention vectors by, 次に、これら3つの注意ベクトルにsoftmaxを適用する。 0.71
σ(Ak)i = (cid:80)3 σ(Ak)i = (cid:80)3 0.85
exp (Ak)i j=1 exp (Aj)i exp (Ak)i j=1 exp (Aj)i 0.99
, i ∈ {1, ..., C}, k ∈ {1, 2, 3} (1) , i ∈ {1, ..., C}, k ∈ {1, 2, 3} (1) 0.78
Here, σ represents softmax activation function, j and k represent feature vector indices, and i represents the ith channel value of a feature vector. ここでσはソフトマックス活性化関数を表し、jとkは特徴ベクトル指標を表し、iは特徴ベクトルのithチャネル値を表す。 0.86
Thus, we obtain three attention 3つの注意を向けます 0.64
TABLE I: ATTENTION VECTOR ENCODER STRUCTURE. テーブルI:触覚ベクトルエンコーダ構造。 0.43
Input Shape Output Shape BN-1 (BN) 入力形状出力形状 BN-1 (BN-1) 0.69
Layer (Type) Dense-1 (Dense) ReLU-1 (ReLU) 層(型)Dense-1(Dense)ReLU- 1(ReLU) 0.78
(C) (C/r) (C/r) (C/r) (C) (C) BN-2 (BN) * C: Channel Dimension (C)(C/r)(C/r)(C/r)(C )(C)BN-2(BN) *C:チャンネル次元 0.85
Dense-2 (Dense) ReLU-2 (ReLU) Dense-2 (Dense) ReLU-2 (ReLU) 0.81
(C/r) (C/r) (C/r) (C) (C) (C) (c/r) (c/r) (c/r) (c) (c) (c) 0.78
r: Reduction ratio vectors where each feature value across the channel dimension depends on each other. R: 削減率 チャネル次元にまたがる各特徴値が互いに依存するベクトル。 0.70
We name these three attention vectors as lung enhancer, heart enhancer, and background suppressor denoted by ALE, AHE, and, ABkS, respectively. これら3つの注意ベクトルを、それぞれale,ahe,abksで表される肺エンハンサー、心臓エンハンサー、背景抑制剤と命名する。 0.68
These quantities are related by (ALE)i + (AHE)i + (ABkS)i = 1 これらの量は (ALE)i +(AHE)i +(ABkS)i = 1 0.73
(2) where, i ∈ {1, ..., C}. 2) i ∈ {1, ..., C} である。 0.63
Next, we denote the lung mask as Mlung, heart mask as Mheart, and any high-level feature map as F . 次に,肺マスクをMlung,心臓マスクをMheart,高次機能マップをFとした。 0.66
The shape of the feature map F is H×W×C while the shape of the masks, Mlung, and Mheart is H×W×1. 特徴写像 f の形状は h×w×c であり、マスク、mlung、mheart の形状は h×w×1 である。 0.68
For consistent channel dimensions Mlung, and Mheart are broadcasted to the shape H×W×C. 一貫したチャネル次元 mlung と mheart は h×w×c の形にブロードキャストされる。 0.67
Afterwards, Mlung, Mheart, and F are element-wise multiplied with the attention vectors ALE, AHE, and, ABkS, respectively. その後、Mlung、Mheart、Fはそれぞれ注目ベクトルALE、AHE、ABkSと要素的に乗算される。 0.61
Thus, we obtain two anatomy attentive feature space RLE, RHE, and the background suppressed feature space, RBkS as RLE = ALE (cid:12) Mlung RHE = AHE (cid:12) Mheart RBkS = ABkS (cid:12) F したがって、2つの解剖学的注意特徴空間 RLE, RHE と背景抑制特徴空間 RBkS を RLE = ALE (cid:12) Mlung RHE = AHE (cid:12) Mheart RBkS = ABkS (cid:12) F とする。 0.89
(3) (4) (5) where (cid:12) represents the element-wise multiplication operation. (3) (4) (5) ここで (cid:12) は要素の乗算演算を表す。 0.79
For faster convergence and removal of any internal covariate shift among RLE, RHE, and RBkS, batch normalization operation is applied individually. RLE, RHE, RBkSにおける内部共変量シフトの高速収束と除去のために, バッチ正規化演算を個別に適用する。 0.76
Next, we sum all of the three feature spaces and apply batch normalization once again to obtain the final feature space by 次に、3つの特徴空間のすべてを総和し、バッチ正規化を適用して最終特徴空間を得る。 0.73
R = BN BN(RLE) + BN (RHE) + BN(RBkS) R = BN BN(RLE) + BN(RHE) + BN(RBkS) 0.85
(6) Here, BN(·) denotes the batch normalization operation. (6) ここで BN(·) はバッチ正規化操作を表す。 0.78
Since ALE is multiplied by Mlung, ALE provides attention to the ALE は Mlung に乗じているので、ALE は Mlung に注意を向ける。 0.50
. (cid:18) . (cid:18) 0.82
(cid:19) Unannotated CXRωuGeneratorGCMCXRto masks generatorGenerated masksGCM( ωu)GeneratorGMCGenera torGMCGeneratorGCMCy cle consistency lossDiscriminator lossMasks to CXR generatorReconstruct edCXRGMC(GCM( ωu ))DiscriminatorDCGro und truth masksθLMasks to CXRgeneratorCXRto masksgeneratorGenera ted CXRGMC( θL)Reconstructedmasks GCM(GMC( θL))Generated CXRGMC( θL)DiscriminatorDMGro und truth masksθLReal / fakeCXRReal / fakemasksAnnotated CXRωLGeneratorGCMCXRto masks generatorGenerated masksGCM( ωL)Segmentation lossCycle consistency loss (cid:19) Unannotated CXRωuGeneratorGCMCXRto masks generatorGenerated masksGCM( ωu)GeneratorGMCGenera torGMCGeneratorGCMCy cle consistency lossDiscriminator lossMasks to CXR generatorReconstruct edCXRGMC(GCM( ωu ))DiscriminatorDCGro und truth masksθLMasks to CXRgeneratorCXRto masksgeneratorGenera ted CXRGMC( θL)Reconstructedmasks GCM(GMC( θL))Generated CXRGMC( θL)DiscriminatorDMGro und truth masksθLReal / fakeCXRReal / fakemasksAnnotated CXRωLGeneratorGCMCXRto masks generatorGenerated masksGCM( ωL)Segmentation lossCycle consistency loss 0.78
英語(論文から抽出)日本語訳スコア
5 Fig. 3: The architecture of the proposed Anatomy X-Net. 5 フィギュア。 3: 提案されたAnatomy X-Netのアーキテクチャ。 0.67
The inputs are the CXR images and corresponding lung and heart masks. 入力は、cxr画像と対応する肺および心臓マスクである。 0.77
These anatomy masks are derived from the segmentation network in a semi-supervised manner. これらの解剖マスクは、半教師付き方法でセグメンテーションネットワークから導出される。 0.67
The anatomy-aware attention modules operate on the upsampled feature spaces from DB-3 and DB-4, with the help of downsampled anatomy segmentation masks. 解剖学的アテンションモジュールは、ダウンサンプリングされた解剖学的セグメンテーションマスクの助けを借りて、DB-3とDB-4のアップサンプリングされた特徴空間で動作する。
訳抜け防止モード: 解剖 - 注意モジュールは DB-3 と DB-4 のアップサンプリングされた特徴空間で動作する。 下半身解剖マスクの助けを借りて
0.63
The feature space calibrated with the supervision of anatomy knowledge from each of the anatomy-aware attention modules is pooled by the PWAP layers and concatenated. 各解剖学的注意モジュールからの解剖学的知識の監督によって調整された特徴空間は、PWAP層によってプールされ、連結される。 0.65
The final dense layer outputs pathology class scores by taking in these concatenated features as input. 最後の密集層は、これらの連結した特徴を入力として、病理学クラスのスコアを出力する。 0.56
The primary objective of the framework is classification loss. フレームワークの主な目的は、分類の損失である。 0.80
spatial regions responsible for respiratory diseases. 呼吸器疾患の原因となる空間領域。 0.65
Similarly, AHE provides attention to heart-related (cardiac) diseases. 同様に、AHEは心臓病(心臓病)に注意を向ける。 0.68
For respiratory diseases, the feature values of the ALE are expected to be higher compared to AHE, and the opposite should be true for cardiac diseases. 呼吸器疾患ではALEの特徴値がAHEよりも高くなり,心疾患ではその逆が真であることが期待される。 0.68
If a CXR contains both respiratory and cardiac pathologies, ALE and AHE may attain similar values. CXRが呼吸病と心臓病の両方を含んでいる場合、ALEとAHEも同様の値が得られる。 0.68
However, based on (2), increase in ALE and AHE will result in lower ABkS. しかしながら、(2)に基づいて、ALEとAHEの増加はABkSの低下をもたらす。 0.67
The lower attention value ABkS will suppress the background areas of a CXR image. 低い注目値ABkSは、CXR画像の背景領域を抑制する。 0.66
Probabilistic Weighted Average Pooling (PWAP) Module: The traditional global average pooling or max-pooling layer provides the same weight to all spatial regions of the input. Probabilistic Weighted Average Pooling (PWAP) Module: 従来のグローバル平均プールまたは最大プール層は、入力のすべての空間領域に同じ重さを提供する。 0.87
However, in many cases, the object of interest may reside in a salient region that is more important than others. しかし、多くの場合、関心の対象は他よりも重要な健全な地域にある可能性がある。 0.61
Usually, a thoracic disease is often characterized by an anatomy region and lesion areas that constitute much smaller portions than the entire image. 通常、胸部疾患は解剖学的領域と、画像全体よりもはるかに小さな部分を構成する病変領域によって特徴づけられる。 0.77
Thus, to further enhance the attention mechanism of our Anatomy X-Net, we have used a novel PWAP module in conjunction with the AAA block. そこで, 解剖学的X-Netの注意機構をさらに強化するために, AAAブロックと組み合わせた新しいPWAPモジュールを開発した。 0.82
In this module, we learn the weight of each spatial position to guide Anatomy X-Net towards lesion localization during training through a 1×1 convolutional filter. 本モジュールでは,各空間位置の重みを学習し,1×1畳み込みフィルタを用いて解剖学的x-netの病変局在を誘導する。 0.74
The 1×1 receptive field has been chosen as we aim to learn the weight at a single spatial position; surrounding information is unwanted. 1×1の受容場は 一つの空間的位置で 体重を学習するために選ばれた 周囲の情報は 望ましくない 0.73
First, we get the probability map P of H×W×1 dimension from the feature map F of dimension H×W×C by, まず H×W×1 次元の確率写像 P を H×W×C 次元の特徴写像 F から得られる。 0.63
(cid:32) C(cid:88) (cid:32)C(cid:88) 0.78
(cid:33) Px,y,1 = sigmoid (cid:33) Px,y,1 = sigmoid 0.83
K1,1,c ∗ Fx,y,c K1,1,c ∗ Fx,y,c 0.90
, c=1 x ∈ 1, ..., H, y ∈ 1...., W (7) , c=1。 x ∈ 1, ..., h, y ∈ 1. ..., w (7) 0.69
Here, K is the learnable convolutional filter. ここで k は学習可能な畳み込みフィルタである。 0.71
Afterwards, we normalize the probability map P to remove any covariance shift and obtain the weight map W of dimension H×W×1 by その後、確率写像 P を正規化して共分散シフトを取り除き、次元 H×W×1 の重み写像 W を得る。 0.70
Wx,y,1 = . Wx,y,1 = . 0.85
(8) (cid:80)H (8) (cid:80)h 0.84
(cid:80)W Px,y,1 (cid:80)w Px,y,1 0.80
x=1 y=1 Px,y,1 x=1 y=1Px,y,1 0.61
Finally, the pooled feature map Z of size 1×1×C is given by 最後に、サイズ 1×1×c のプーリング特徴写像 z が与えられる。 0.67
Z1,1,c = Fx,y,c ∗ Wx,y,1. Z1,1,c = Fx,y,c ∗ Wx,y,1。 0.84
(9) H(cid:88) (9) h(cid:88) 0.82
W(cid:88) W(Ccid:88) 0.79
x=1 y=1 Conv𝑀lung𝑀heart𝐹(HxWxC)1x1xCSoftmax along channel axis𝐴LE𝐴HE𝐴BkSPWAPFCFCFCFCFCFCB NBNBNBNBNBNBNBNBNReL UReLUReLUReLUReLUReL UBNHxWxC…PoolPoolDense Block-1Dense Block-3Dense Block-4Semi-Supervis ed Segmentation224x224U SUSAnatomyAwareAtten tion𝑛Probabilistic Weighted Average Pooling (PWAP)AnatomyAwareAt tention* US: UpsamplingDS: DownsamplingBN: Batch Normalization FC: Fully ConnectedDS7x7x10241 4x14x51284x84x51284x 84x102484x84x2224x22 4x2𝑗σ𝑗σ𝑖𝑋σ𝑗σ𝑖𝑃𝑛𝑋𝑃𝑖𝑗𝑖𝑛Conv 1x1+SigmoidPredictionPWA PPWAP5121024Classifi er x=1 y=1。 Conv𝑀lung𝑀heart𝐹(HxWxC)1x1xCSoftmax along channel axis𝐴LE𝐴HE𝐴BkSPWAPFCFCFCFCFCFCB NBNBNBNBNBNBNBNBNReL UReLUReLUReLUReLUReL UBNHxWxC…PoolPoolDense Block-1Dense Block-3Dense Block-4Semi-Supervis ed Segmentation224x224U SUSAnatomyAwareAtten tion𝑛Probabilistic Weighted Average Pooling (PWAP)AnatomyAwareAt tention* US: UpsamplingDS: DownsamplingBN: Batch Normalization FC: Fully ConnectedDS7x7x10241 4x14x51284x84x51284x 84x102484x84x2224x22 4x2𝑗σ𝑗σ𝑖𝑋σ𝑗σ𝑖𝑃𝑛𝑋𝑃𝑖𝑗𝑖𝑛Conv 1x1+SigmoidPredictionPWA PPWAP5121024Classifi er 0.44
英語(論文から抽出)日本語訳スコア
A. Datasets IV. A.データセット IV。 0.70
TRAINING We evaluate our proposed Anatomy X-Net on two largescale chest X-ray datasets, NIH [5], and CheXpert [17]. 訓練 大規模な胸部X線データセットNIH[5]とCheXpert[17]を用いた解剖学的X-Netの評価を行った。 0.56
The NIH dataset consists of 112,120 frontal-view CXR images from 30,805 unique patients with 14 diseases. NIHデータセットは、14の疾患を持つ30,805人のユニークな患者の112,120の正面視CXR画像で構成されている。 0.51
Each CXR image in the NIH dataset is assigned with one or more pathological labels. NIHデータセットの各CXR画像は、1つ以上の病理ラベルで割り当てられる。 0.80
The CheXpert dataset consists of 224,316 chest radiographs of 65,240 patients with both frontal and lateral views. CheXpertデータセットは224,316個の胸部X線写真からなり、65,240人の患者が前頭側と側方の両方を視認できる。 0.50
We strictly follow the official split of NIH and CheXpert datasets for conducting experiments and fair comparison with previous works. 実験を行うためにNIHとCheXpertのデータセットを正式に分割し、以前の研究と公正に比較する。 0.66
The NIH dataset is split into 70% for training, 10% for validation, and 20% for testing as provided by Wang et al [5]. nihデータセットはトレーニングで70%、バリデーションで10%、wang氏らによって提供されるテストで20%に分割されている。 0.57
U-Zeros [17] strategy is used for the CheXpert data. U-Zeros [17]戦略はCheXpertデータに使用される。 0.86
We report our classification model performance on the NIH test dataset and CheXpert validation dataset. NIHテストデータセットとCheXpert検証データセットの分類モデルの性能について報告する。 0.72
We use the JSRT [19] dataset to train the segmentation model. 私たちはセグメンテーションモデルをトレーニングするためにJSRT[19]データセットを使用します。 0.62
The JSRT dataset contains 247 images in total. JSRTデータセットには合計247のイメージが含まれている。 0.64
The segmentation annotations, including heart and lung, are obtained from [21]. 心肺を含むセグメンテーションアノテーションは[21]から得られる。 0.51
We use the JSRT dataset as an annotated subset and NIH and CheXpert datasets as unannotated subsets to train the segmentation model in a semi-supervised way. jsrtデータセットをアノテーション付きサブセットとして、nihとchexpertデータセットをアノテーションなしサブセットとして、セグメンテーションモデルを半教師ありの方法でトレーニングします。 0.53
B. Training Scheme for Segmentation B。 セグメンテーションのためのトレーニングスキーム 0.73
For preprocessing and hyper-parameter settings, we followed the procedure described in [18]. 事前処理とハイパーパラメータ設定については,[18]で記述した手順に従った。 0.74
Our data comes from three distributions: annotated CXRs (ωL), segmentation masks of annotated CXRs (θL), and unannotated CXRs (ωu). 我々のデータは、アノテートCXR(ωL)、アノテートCXR(θL)のセグメンテーションマスク(ωu)の3つの分布から来ている。 0.65
We train the generator module GCM to generate segmentation masks by, 我々はジェネレータモジュールGCMをトレーニングし、セグメンテーションマスクを生成する。 0.67
(cid:2)H(θ, GCM (ω))(cid:3) (cid:2)H(θ, GCM(ω))(cid:3) 0.94
gen(GCM ) = Eω,θ∈ωL,θL LM gen(GCM ) = Eω,θ∂ωL,θL LM 0.82
where H is the pixel-wise cross-entropy defined as, ここで H はピクセル単位のクロスエントロピーで、 0.69
H(θ, ˜θ) = − N(cid:88) H(θ, sθ) = − N(cid:88) 0.95
K(cid:88) j=1 k(cid:88) j=1 0.69
k=1 θj,k log ˜θj,k k=1 θj,k 対 θj,k 0.71
(10) (11) where, θj,k and ˜θj,k are the annotated segmentation masks and predicted probabilities that pixel j ∈ {1, ..., N} has label k ∈ {1, ..., K}. (10) (11) ここで、θj,k と sθj,k は注釈付きセグメンテーションマスクであり、ピクセル j ∈ {1, ..., n} がラベル k ∈ {1, ..., k} を持つ確率を予測する。 0.85
Likewise, we employ a pixel-wise L2 norm between an annotated CXR and the CXR generated from its corresponding segmentation mask as a supervised loss to train the CXR generator GM C: 同様に、アノテートされたCXRと対応するセグメンテーションマスクから生成されたCXRとの間には、CXRジェネレータGMCを訓練するための画素ワイドL2ノルムが採用されている。 0.63
(cid:2)(cid:107)GM C(θ) − ω(cid:107)2 (cid:2)(cid:107)GM C(θ) − ω(cid:107)2 0.88
(cid:3) gen(GM C) = Eω,θ∈ωL,θL LC (cid:3) gen(GM C) = Eω,θ・ωL,θL LC 0.81
(12) Suppose that DM (θ) is the predicted probability that segmentation masks θ correspond to an annotated CXR’s segmentation mask. (12) DM(θ)がセグメンテーションマスク θ がアノテートされたCXR のセグメンテーションマスクに対応する確率であると仮定する。 0.81
We define the adversarial loss for DM as, DMの対向損失を, DMの対向損失と定義する。 0.58
2 (cid:2)(DM (θ) − 1)2(cid:3)+ (cid:2)(DM (GCM (ω 2 (cid:2)(DM(θ) − 1)2(cid:3)+(cid:2)(DM(GCM(ω)) 0.86
)))2(cid:3) ))2(cid:3) 0.89
(cid:48) disc(GCM , DM ) = Eθ∈θL LM E ω (cid:48) ディスク(GCM , DM ) = Eθ∂θL LM E ω 0.81
(13) Let DC(ω) be the predicted probability that a CXR ω is real. (13) dc(ω) を cxr ω が実数であるという予測確率とする。 0.79
We get the adversarial loss for the CXR discriminator by, 我々は、CXR判別器の逆損失を得る。 0.65
(cid:48)∈ωu (cid:48)htmlωu 0.53
disc(GM C, DC) = E LC disc(GM C, DC) = E LC 0.85
ω (cid:2)(DC(ω ) − 1)2(cid:3)+ (cid:2)(DC(GM C(θ)))2(cid:3) ω (cid:2)(DC(ω ) − 1)2(cid:3)+(cid:2)(DC(GM C(θ)))2(cid:3) 0.90
Eθ∈θL (cid:48) Eθ∂θL (cid:48) 0.54
(cid:48)∈ωu (cid:48)htmlωu 0.53
6 (14) The first cycle consistency loss measures the difference between an unannotated CXR and the regenerated CXR after passing through generators GCM and GM C sequentially. 6 (14) 第1サイクル整合損失は、ジェネレータGCM、GMCを順次通過した後、無注釈CXRと再生CXRとの差を測定する。 0.81
(cid:2)(cid:107)GM C(GCM (ω (cid:2)(cid:107)GM C(GCM(ω)) 0.79
(cid:3) cycle(GCM , GM C) = E LC (cid:3) cycle(GCM , GM C) = E LC 0.82
(cid:48)(cid:107)1 (15) We use cross-entropy to evaluate the difference between an annotated and regenerated segmentation mask after passing through generators GM C and GCM in sequence: (cid:48)(cid:107)1 (15) ジェネレータ GM C と GCM を連続的に通過した後、アノテーションと再生セグメンテーションマスクの違いを評価するためにクロスエントロピーを用いる。
訳抜け防止モード: (cid:48)(cid:107)1 (15 ) アノテーションと再生セグメンテーションマスクの違いを評価するためにクロス-エントロピーを使用する ジェネレータ GM C と GCM を順番に通り抜ける:
0.84
)) − ω (cid:48)∈ωu )) − ω (cid:48)htmlωu 0.69
ω (cid:48) ω (cid:48) 0.82
cycle(GCM , GM C) = Eθ∈θL LM cycle(gcm , gm c) = eθθθl lm 0.83
(cid:2)H(θ, GCM (GM C(θ)))(cid:3) (16) (cid:2)H(θ, GCM(GM C(θ)))(cid:3)(16) 0.97
Finally, the total loss is obtained by combining all six loss 最後に、合計損失は6つの損失を全て組み合わせて得られる 0.81
terms: Ltotal(GCM , GM C, DM , DC) = LM 条件: Ltotal(GCM , GM C, DM , DC) = LM 0.72
+ LM cycle(GCM , GM C) + LC − LM + lm サイクル(GCM , GM C) + LC − LM 0.74
disc(GCM , DM ) − LC disc(GCM , DM ) − LC 0.85
gen(GCM )+LC cycle(GCM , GM C) disc(GM C, DC) gen(GCM )+LCサイクル(GCM , GM C)ディスク(GM C, DC) 0.88
gen(GM C) gen (複数形 gens) 0.58
(17) C. Training Scheme for Classification (17) c.分類の訓練方法 0.85
Multi-label Setup: The pathological labels in each CXR of the NIH dataset are expressed as a 15-dimensional label vector, L = [l1, ..., li, ..., ln] where li ∈ {0, 1}, n = 15. li represents whether there is any pathology, i.e., 1 for presence and 0 for absence. マルチラベル設定: NIHデータセットの各CXR内の病理ラベルは15次元ラベルベクトル L = [l1, ..., li, ..., ln] ここで li ∈ {0, 1}, n = 15 となる。
訳抜け防止モード: マルチラベル設定 : NIHデータセットの各CXR内の病理ラベルは15次元ラベルベクトルとして表現される。 L = [ l1, ..., li, ..., ln ] ここで li ∈ { 0, 1 }, n = 15 . li が表すかどうか 病理学、すなわち1は存在、0は不在である。
0.81
In the case of CheXpert Dataset, L is a 13-dimensional vector. CheXpert Datasetの場合、L は 13 次元ベクトルである。 0.73
In both cases, the last element of the L vector represents the label with “No Finding”. どちらの場合も、L ベクトルの最後の要素は "No Finding" でラベルを表す。 0.76
Multi-label Classification Loss: The output p(i|C) from the last dense layer of the Anatomy X-Net is passed through a sigmoid layer and normalized by マルチラベル分類損失:解剖学 X-Net の最終密度層からの出力 p(i|C) はシグモノイド層を通過し、正規化される。 0.77
ps(i|C) = 1 ps(i|C) = 1 0.87
1 + exp (−p(i|C)) 1 + exp (−p(i|C)) 0.90
(18) where C is a CXR image and ps(i|C) represents the probability score of C belonging to the ith class, where i ∈ {1, 2, ..., n}. (18) C が CXR の画像であり、ps(i|C) が i 級に属する C の確率スコアを表し、i ∈ {1, 2, ..., n} が成り立つ。 0.81
We optimize the weight parameters of our model by minimizing the binary cross entropy (BCE) loss defined as 我々は,二元交叉エントロピー(bce)損失を最小化し,モデルの重みパラメータを最適化する。 0.79
i=1 Lcls = − 1 n i=1 Lcls = − 1 n 0.72
li log (ps(i|C)) + (1− li) log (1 − ps(i|C)) (19) where li is the ground-truth label of the ith class and n is the number of pathologies. li log (ps(i|c)) + (1− li) log (1 − ps(i|c)) (19) ここでliはithクラスの基底ラベルであり、nは病理の数である。 0.85
“Cardiomegaly” in the NIH dataset and “cardiomegaly and enlarged cardiomediastinum” in the CheXpert dataset are diseases related to the heart. NIHデータセットの“Cardiomegaly”と、CheXpertデータセットの“cardiomegaly and expandedd cardiomediastinum”は、心臓に関連する疾患である。 0.79
The rest of the pathologies in both datasets are associated with the 両方のデータセットの残りの病理は関連付けられている。 0.73
, (cid:20) , (cid:20) 0.82
n(cid:88) (cid:21) n(cid:88) (cid:21) 0.81
英語(論文から抽出)日本語訳スコア
TABLE II: PATHOLOGY-WISE PERFORMANCE COMPARISON OF THE PROPOSED METHOD WITH STATE-OF-THE-ART SYSTEMS ON THE NIH DATASET. 表II:2つのデータセット上の静的そのシステムを用いた提案手法の性能比較 0.55
THE 14 FINDINGS FOR NIH DATASETS ARE EMPHYSEMA (EMPH), FIBROSIS (FIBR), HERNIA (HERN), INFILTRATION (INFI), PLEURAL THICKENING (PT), MASS, NODULE (NODU), ATELECTASIS (ATEL), CARDIOMEGALY (CARD), CONSOLIDATION (CONS), EDEMA (EDEM), EFFUSION (EFFU), PNEUMONIA (PNE1), AND PNEUMOTHORAX (PNE2). The 14 FINDINGS FORNIH DataseTS ARE Emphhysema (EMPH), FIBROSIS (FIBR), HERNIA (HERN), INFILTATION (INFI), pleURAL THICKENING (PT), MASS, NODULE (NODU), ATELECTASIS (ATEL), CARDIOMEGALY (CARD), CONSOLIDATION (CONS), EDEMA (EDEM), EFFUSION (EFFU), PNEUMONIA (PNE1), PNEUMOTHORAX (PNE2)。 0.66
7 Method DCNN [5] 7 メソッドDCNN[5] 0.79
LSTM-Net [29] LSTM-Net [29] 0.84
TieNet [32] AGCL [10] Ho et al [33] SDFN [34] CRAL [12] CheXNet [15] TieNet [32] AGCL [10] Ho et al [33] SDFN [34] Cral [12] CheXNet [15] 0.81
DualCheXNet [35] DualCheXNet [35] 0.85
LLAGNet [11] Wang et al [13] Yan et al [16] Luo et al [36] LLAGNet [11] Wang et al [13] Yan et al [16] Luo et al [36] 0.85
Proposed Anatomy X-Net 解剖学 x-net の提案 0.47
Emph 0.8150 0.8420 0.8650 0.9075 0.8750 0.9210 0.9080 0.9249 0.9420 0.9390 0.9330 0.9422 0.9396 0.9227 Emph 0.8150 0.8420 0.8650 0.9075 0.8750 0.9210 0.9080 0.9249 0.9420 0.9390 0.9330 0.9422 0.9396 0.9227 0.43
Fibr 0.7690 0.7570 0.7960 0.8179 0.7560 0.8350 0.8300 0.8219 0.8370 0.8320 0.8380 0.8326 0.8381 0.8322 Fibr 0.7690 0.7570 0.7960 0.8179 0.7560 0.8350 0.8300 0.8219 0.8370 0.8320 0.8380 0.8326 0.8381 0.8322 0.43
Hern 0.7670 0.8240 0.8760 0.8747 0.8360 0.9110 0.9170 0.9323 0.9120 0.9160 0.9380 0.9341 0.9371 0.9622 Hern 0.7670 0.8240 0.8760 0.8747 0.8360 0.9110 0.9170 0.9323 0.9120 0.9160 0.9380 0.9341 0.9371 0.9622 0.43
Infi 0.6090 0.6750 0.6660 0.6892 0.7030 0.7000 0.7020 0.6894 0.7050 0.7030 0.7100 0.7095 0.7184 0.7051 Infi 0.6090 0.6750 0.6660 0.6892 0.7030 0.7000 0.7020 0.6894 0.7050 0.7030 0.7100 0.7095 0.7184 0.7051 0.42
PT 0.7080 0.7240 0.7350 0.7647 0.7740 0.7910 0.7780 0.7925 0.7960 0.7980 0.7910 0.8083 0.8036 0.7856 PT 0.7080 0.7240 0.7350 0.7647 0.7740 0.7910 0.7780 0.7925 0.7960 0.7980 0.7910 0.8083 0.8036 0.7856 0.63
Mass 0.7060 0.7270 0.7250 0.8136 0.8350 0.8150 0.8340 0.8307 0.8380 0.8410 0.8340 0.8470 0.8376 0.8553 Mass 0.7060 0.7270 0.7250 0.8136 0.8350 0.8150 0.8340 0.8307 0.8380 0.8410 0.8340 0.8470 0.8376 0.8553 0.43
Nodu 0.6710 0.7780 0.6850 0.7545 0.7160 0.7650 0.7730 0.7814 0.7960 0.7900 0.7770 0.8105 0.7985 0.7932 Nodu 0.6710 0.7780 0.6850 0.7545 0.7160 0.7650 0.7730 0.7814 0.7960 0.7900 0.7770 0.8105 0.7985 0.7932 0.43
Atel 0.7160 0.7330 0.7320 0.7557 0.7950 0.7810 0.7810 0.7795 0.7840 0.7830 0.7790 0.7924 0.7891 0.8150 Atel 0.7160 0.7330 0.7320 0.7557 0.7950 0.7810 0.7810 0.7795 0.7840 0.7830 0.7790 0.7924 0.7891 0.8150 0.43
Card 0.8070 0.8580 0.8440 0.8865 0.8870 0.8850 0.8800 0.8816 0.8880 0.8850 0.8950 0.8814 0.9069 0.9080 Card 0.8070 0.8580 0.8440 0.8865 0.8870 0.8850 0.8800 0.8816 0.8880 0.8850 0.8950 0.8814 0.9069 0.9080 0.43
Cons 0.7080 0.7170 0.7010 0.7283 0.7860 0.7430 0.7540 0.7542 0.7460 0.7540 0.7590 0.7598 0.7681 0.8096 Cons 0.7080 0.7170 0.7010 0.7283 0.7860 0.7430 0.7540 0.7542 0.7460 0.7540 0.7590 0.7598 0.7681 0.8096 0.43
Edem 0.8350 0.8060 0.8290 0.8475 0.8920 0.8420 0.8500 0.8496 0.8520 0.8510 0.8550 0.8470 0.8610 0.8957 Edem 0.8350 0.8060 0.8290 0.8475 0.8920 0.8420 0.8500 0.8496 0.8520 0.8510 0.8550 0.8470 0.8610 0.8957 0.43
Effu 0.7840 0.8060 0.7930 0.8191 0.8750 0.8320 0.8290 0.8268 0.8310 0.8340 0.8360 0.8415 0.8418 0.8803 Effu 0.7840 0.8060 0.7930 0.8191 0.8750 0.8320 0.8290 0.8268 0.8310 0.8340 0.8360 0.8415 0.8418 0.8803 0.43
Pne1 0.6330 0.6900 0.7200 0.7292 0.7420 0.7190 0.7290 0.7354 0.7270 0.7290 0.7370 0.7397 0.7419 0.7751 Pne1 0.6330 0.6900 0.7200 0.7292 0.7420 0.7190 0.7290 0.7354 0.7270 0.7290 0.7370 0.7397 0.7419 0.7751 0.42
Pne2 0.8060 0.8050 0.8470 0.8499 0.8630 0.8660 0.8570 0.8513 0.8760 0.8770 0.8780 0.8759 0.9063 0.8741 Pne2 0.8060 0.8050 0.8470 0.8499 0.8630 0.8660 0.8570 0.8513 0.8760 0.8770 0.8780 0.8759 0.9063 0.8741 0.42
Average 0.7381 0.7673 0.7724 0.8027 0.8097 0.8150 0.8159 0.8180 0.8230 0.8237 0.8260 0.8302 0.8349 0.8439 Average 0.7381 0.7673 0.7724 0.8027 0.8097 0.8150 0.8159 0.8180 0.8230 0.8237 0.8260 0.8302 0.8349 0.8439 0.43
TABLE III: PATHOLOGY-WISE PERFORMANCE COMPARISON OF THE PROPOSED METHOD WITH STATE-OF-THE-ART SYSTEMS ON THE CHEXPERT DATASET. 表III: チェクサートデータセット上の静的そのシステムと提案方法のパトロジィワイズ性能の比較 0.47
Method Atelectasis 方法 Atelectasis 0.81
Cardiomegaly DeneseNet-121 without any AAA and PWAP modules 心臓腫 AAAおよびPWAPモジュールを持たないDeneseNet-121 0.70
CheXpert Official Benchmark [17] CheXpert公式ベンチマーク [17] 0.76
Pham et al [37] Pham et al [37] 0.85
Proposed Anatomy X-Net 解剖学 x-net の提案 0.47
0.75 0.81 0.81 0.87 0.75 0.81 0.81 0.87 0.45
0.80 0.84 0.83 0.86 0.80 0.84 0.83 0.86 0.45
Edema 0.89 0.93 0.93 0.93 Edema 0.89 0.93 0.93 0.93 0.50
Consolidation Pleural Effusion 0.83 0.93 0.93 0.88 統合 胸水 0.83 0.93 0.93 0.88 0.41
0.88 0.93 0.92 0.92 0.88 0.93 0.92 0.92 0.45
Average 0.820 0.889 0.884 0.902 平均0.8200.8890.8840.902 0.55
lungs. To utilize this criterion, we apply BCE loss function on attention vectors by, 肺だ この基準を利用するために、BCE損失関数を注目ベクトルに適用する。 0.73
n(cid:88) C(cid:88) n(cid:88) c(cid:88) 0.82
(cid:20) Lattn = − 1 nC (cid:20) Lattn = − 1 nC 0.82
(lj)i log {(vj)i} (lj)i log {(vj)i} 0.85
j=1 i=1 + {1 − (lj)i} log {1 − (vj)i} j=1 i=1 + {1 − (lj)i} log {1 − (vj)i} 0.68
(cid:21) . (cid:21) . 0.82
(20) Here, n = 2 representing ALE and AHE attention vectors respectively. (20) ここで、n = 2 はそれぞれ ALE と AHE の注意ベクトルを表す。 0.80
(vj)i and (lj)i represent the sigmoid function activated value and ground truth label of the jth attention vectors at position i, where i ∈ {1, 2, ..., C} and j ∈ {1, 2}. i ∈ {1, 2, ..., C} と j ∈ {1, 2} のとき、 (vj)i と (lj)i は、位置 i における j 番目の注意ベクトルのシグモイド函数の活性化値と基底真理ラベルを表す。 0.87
For lung related pathologies, ground truth vector li for ALE attention vector is a vector of dimension C, where each of the value is 1. 肺関連病理学では、ALE注意ベクトルの基底真理ベクトル Li は次元 C のベクトルであり、それぞれの値は 1 である。 0.80
Otherwise, every values of li is 0. さもなくば、li のすべての値は 0 である。 0.57
Similar case follows for heart related pathologies. 同様の症例が心臓関連疾患である。 0.72
Finally we find the total loss by, 最後に、全体の損失が分かる。 0.71
Ltotal = Lcls + λpaLattn. Ltotal = Lcls + λpaLattn。 0.95
(21) Here, λpa is a hyper-parameter of our framework. (21) ここでλpaは私たちのフレームワークのハイパーパラメータです。 0.78
We let λpa = 0.2, which is selected empirically. λpa = 0.2 を経験的に選択する。 0.78
Preprocessing and Hyper-parameters: We resize the original images to 256×256 and normalize them with the mean and standard deviation of the ImageNet training set. 前処理とハイパーパラメータ: 元のイメージを256×256にリサイズし、ImageNetトレーニングセットの平均および標準偏差で正規化します。 0.83
We randomly crop a 224×224 sub-image during training to augment the original training subset. トレーニング中にランダムに224×224のサブイメージを収穫し、元のトレーニングサブセットを拡張する。 0.59
For a fairer comparison, we follow [16] and take advantage of flipping and scaling to increase the variation and the diversity of training samples. より公平な比較のために、[16]に従い、フリップとスケーリングを利用してトレーニングサンプルのバリエーションと多様性を高めます。 0.70
For validation and inference, we use a centrally cropped sub-image of 224×224 dimensions as input. 検証と推論のために、224×224次元の中央に切り抜かれたサブイメージを入力として使用する。 0.57
The anatomy masks from the segmentation network are resized to 84×84 before passing to the AAA modules. セグメンテーションネットワークからの解剖マスクは、AAAモジュールに渡す前に84×84にリサイズされる。 0.79
We use Adam optimizer [40] with standard parameters (β1 = 0.9 and β2 = 0.99). 標準パラメータ(β1 = 0.9、β2 = 0.99)を持つadam optimizer [40]を使用する。 0.74
The batch size is set to バッチサイズが設定されます 0.82
44 with a gradient accumulation step of 2. 44で, 勾配累積ステップは2。 0.66
We set the initial learning rate 0.0001 and run the training for 14 epochs. 初期学習率0.0001を設定し,14時間トレーニングを行った。 0.78
Performance Metric: Following previous studies, [5], [36], we employ the area under the receiver operating characteristic curve (AUC) for performance evaluation. 性能指標: 先行研究, [5], [36] に続いて, 受信機動作特性曲線(AUC)の下での性能評価を行う。
訳抜け防止モード: パフォーマンス指標 : 前回の研究では [ 5 ], [ 36 ] 本研究では,受信機動作特性曲線 (AUC) の下での性能評価を行う。
0.83
The AUC of each disease class is evaluated as well as the average AUC overall categories. 各疾患クラスのAUCは、平均的なAUC全体カテゴリと同様に評価される。 0.76
We validate the model in every epoch on the validation dataset and choose the model with the highest validation AUC for evaluation on the test dataset. 検証データセット上の各エポックにおけるモデルを検証し、テストデータセット上で評価するための最も高い検証AUCでモデルを選択する。 0.78
V. EXPERIMENTAL RESULTS AND ANALYSIS A. V.実験結果と分析 A。 0.76
Performance on NIH-dataset NIHデータセットの性能評価 0.55
We compare our proposed Anatomy X-Net with previously published state-of-the-art methods including: deep convolutional neural networks (DCNN) [5], deep network with longshort-term-memor y unit (LSTM-Net) [29], TextImage Embedding network (TieNet) [32], Attention-Guided Curriculum Learning (AGCL) [10], the method presented by Ho et al [33], Segmentation-Based Deep Fusion Network (SDFN) [34], Category-wise Residual Attention Learning (CRAL) [12], CheXNet [15], DualCheXNet [35], Lesion location Attention Guided Network (LLAGNet) [11], the method of Wan et al [13], Yan et al [16], and Luo et al [36]. We compare our proposed Anatomy X-Net with previously published state-of-the-art methods including: deep convolutional neural networks (DCNN) [5], deep network with longshort-term-memor y unit (LSTM-Net) [29], TextImage Embedding network (TieNet) [32], Attention-Guided Curriculum Learning (AGCL) [10], the method presented by Ho et al [33], Segmentation-Based Deep Fusion Network (SDFN) [34], Category-wise Residual Attention Learning (CRAL) [12], CheXNet [15], DualCheXNet [35], Lesion location Attention Guided Network (LLAGNet) [11], the method of Wan et al [13], Yan et al [16], and Luo et al [36]. 0.89
Our model achieves an average AUC score of 0.8401 without any augmentation during inference and exceeds all the compared models. 提案モデルでは,AUCの平均スコアは0.8401であり,推定時の拡張は行わず,比較したモデルすべてを超えている。
訳抜け防止モード: 我々のモデルは推論中に拡張することなく平均AUCスコア0.8401を達成する 比較した全てのモデルを超えます
0.75
For a fairer comparison, we follow [16], [36], and take advantage of horizontal flipping and cropping at five different positions to augment the test data and using average probabilities of ten cropped sub-images (four corner crops and one central crop plus horizontally flipper version of these) as the final prediction. より公平な比較のために、 [16], [36] に従い、5つの異なる位置で水平フリップとトリッピングを活用し、テストデータを強化し、10つのトリミングされたサブイメージ(4つのコーナー作物と1つの中央作物およびこれらの水平フリップパーバージョン)の平均確率を最終予測とした。 0.76
As shown in Table II, the 表IIに示すように 0.65
英語(論文から抽出)日本語訳スコア
8 Fig. 4: The first row depicts the CXR images from the NIH test dataset. 8 フィギュア。 4: 最初の行は、nihテストデータセットからのcxrイメージを示している。 0.66
The Anatomy masks derived from the segmentation model in a semi-supervised way are shown in the second row. 半教師付き方法でセグメンテーションモデルから導出された解剖マスクを第2列に示す。 0.75
The third row depicts the attention regions derived from the feature map encoded by the dense block-4 of the backbone model. 3番目の行は、バックボーンモデルの密度ブロック-4で符号化された特徴マップに由来する注意領域を示している。 0.67
The fourth row demonstrates the output of the AAA module that works on the feature space from dense block-4. 4行目は、高密度ブロック4から特徴空間に作用するAAAモジュールの出力を示す。 0.72
This AAA module integrates anatomy information into the Anatomy X-Net. このAAAモジュールは解剖情報を解剖X-Netに統合する。 0.64
The final row shows top-5 predicted findings and the corresponding prediction scores of Anatomy X-net. 最終行は、トップ5の予測結果と、それに対応する解剖学的Xネットの予測スコアを示している。 0.52
The ground truth labels are highlighted in red. 真実のラベルは赤で強調されます。 0.72
method proposed by Luo et al [36] is the previous state-ofthe-art yielding an AUC of 0.8349, while our method exceeds all the compared models and achieves a new state-of-the-art performance of 0.8439 AUC. Luo et al [36] が提案した手法は,AUCが 0.8349 であるのに対して,本手法はすべての比較モデルを超え,新しい最先端性能 0.8439 AUC を達成する。 0.82
Specifically, our classification results outperform others in 8 out of 14 categories. 具体的には,14カテゴリ中8カテゴリで分類結果が他を上回った。 0.63
In the rest of the six categories, our model achieved slightly worse but competitive scores. 残りの6つのカテゴリーでは、我々のモデルはわずかに悪いが、競争的なスコアを得た。 0.61
Overall, the proposed Anatomy X-Net achieves a 1.0778% relative improvement in average AUC over the former best system by integrating the anatomy knowledge. 全体として、提案した解剖学X-Netは、解剖学の知識を統合することで、以前の最良のシステムよりも平均的なAUCが1.0778%向上した。 0.46
B. Performance on CheXpert-dataset B。 CheXpertデータセットの性能 0.72
To demonstrate the generalizability of our method, we carry out experiments on the CheXpert official validation dataset as well. 本手法の一般化性を示すため,CheXpertの公式検証データセットについても実験を行った。 0.75
First, we report the baseline model performance, DenseNet-121, without any AAA and PWAP modules. まず,AAAおよびPWAPモジュールを含まないベースラインモデルDenseNet-121について報告する。 0.75
The baseline model does not use the prior anatomy segmentation information from the semi-supervised segmentation model. ベースラインモデルは、半教師付きセグメンテーションモデルからの事前解剖学的セグメンテーション情報を使用しない。 0.70
Next, we report the performance of the proposed Anatomy XNet. 次に,提案する解剖学XNetの性能について報告する。 0.69
Finally, we compare our performance with the U-Zeros method from CheXpert benchmark [17] and Pham et al [37]. 最後に,chexpert benchmark [17] と pham et al [37] の u-zeros メソッドとの比較を行った。 0.68
The experimental results are shown in Table III. 実験結果は表IIIに示されている。 0.84
The results show that our model achieved an AUC of 0.902, surpassing the その結果,本モデルは0.902のAUCを達成した。 0.73
CheXpert benchmark of U-Zeros [17], and method presented in [37]. U-Zeros[17]のCheXpertベンチマークと[37]で提示されたメソッド。 0.63
C. Analysis of attention regions and attention vectors c.注意領域と注意ベクトルの解析 0.77
We demonstrate the attention regions and output of our proposed AAA module in Fig 4, along with the CXR images, anatomy masks, and classification results. 提案するAAAモジュールの注意領域と出力を図4に示すとともに,CXR画像,解剖学的マスク,分類結果を示した。 0.78
We produce the attention heat maps to visualize the most indicative pathology areas on CXRs from the test dataset, interpreting the representational power of Anatomy X-Net. 注目熱マップを作成し,CXRの最も印象的な病理領域を解析し,解剖学的X-Netの表現力の解釈を行った。 0.74
Heatmaps in the third row in Fig 4 are constructed from the feature space encoded by the dense block-4 of the Anatomy X-Net. 図4の3列目のヒートマップは、解剖学的X-ネットの密ブロック4で符号化された特徴空間から構成される。 0.72
The heatmaps are computed by averaging along the channel dimension. ヒートマップはチャネル次元に沿って平均化することで計算される。 0.65
Then, they are normalized and resized to the original CXR image dimension. その後、正規化され、元のcxr画像次元にリサイズされる。 0.71
The fourth row demonstrates the output of the AAA module that works on the feature space derived from the dense block-4. 4行目は、高密度ブロック4から派生した特徴空間で動作するAAAモジュールの出力を示す。 0.73
A visual evaluation of the output generated by the AAA module confirms that the anatomyawareness of the module. AAAモジュールが生成した出力の視覚的評価により、モジュールの解剖学的認識性が確認される。 0.77
Thus, similar to the process followed by a radiologist, the AAA module integrates the anatomy information responsible for a particular pathology within the このように、AAAモジュールは放射線学者が追従するプロセスと同様に、内部の特定の病理に責任がある解剖情報を統合する。 0.56
AAA ModuleOutputCXR ImageAnatomy MasksAttention RegionModelPredictio nNodu: 0.8086Mass: 0.3159Effu: 0.1699Infi: 0.0851Atel: 0.0284Card: 0.8950Effu: 0.2184Infi: 0.1587Emph: 0.0443Nodu: 0.0436Atel: 0.7476Infi: 0.0812Effu: 0.0448Nodu: 0.0396Fibr: 0.0177Mass: 0.9351Infi: 0.1208Atel: 0.0801Nodu: 0.0761Effu: 0.0661Effu: 0.6953Infi: 0.6523Cons: 0.2382Mass: 0.2172Pne1: 0.1974Pne2: 0.7490Mass: 0.6235Nodu: 0.3738Effu: 0.3137Infi: 0.1240Emph: 0.8184Pne2: 0.6523Infi: 0.2815Effu: 0.0718Card: 0.0454Mass: 0.8125Effu: 0.6265Infi: 0.4797Cons: 0.4473Nodu0.2394Effu : 0.6030PT: 0.5532Infi: 0.4224Mass: 0.3591Atel: 0.2460 AAA ModuleOutputCXR ImageAnatomy MasksAttention RegionModelPredictio nNodu: 0.8086Mass: 0.3159Effu: 0.1699Infi: 0.0851Atel: 0.0284Card: 0.8950Effu: 0.2184Infi: 0.1587Emph: 0.0443Nodu: 0.0436Atel: 0.7476Infi: 0.0812Effu: 0.0448Nodu: 0.0396Fibr: 0.0177Mass: 0.9351Infi: 0.1208Atel: 0.0801Nodu: 0.0761Effu: 0.0661Effu: 0.6953Infi: 0.6523Cons: 0.2382Mass: 0.2172Pne1: 0.1974Pne2: 0.7490Mass: 0.6235Nodu: 0.3738Effu: 0.3137Infi: 0.1240Emph: 0.8184Pne2: 0.6523Infi: 0.2815Effu: 0.0718Card: 0.0454Mass: 0.8125Effu: 0.6265Infi: 0.4797Cons: 0.4473Nodu0.2394Effu : 0.6030PT: 0.5532Infi: 0.4224Mass: 0.3591Atel: 0.2460 0.48
英語(論文から抽出)日本語訳スコア
model. The final row of Fig 4 shows top-5 predicted findings and the corresponding prediction scores of Anatomy X-net. モデル。 図4の最終行は、トップ5の予測結果と、それに対応する解剖学的Xネットの予測スコアを示している。 0.65
D. Effectiveness of AAA modules D. AAAモジュールの有効性 0.83
AAA modules are the driving blocks of our method that help the model learn the salient anatomy information associated with a particular thoracic disease. AAAモジュールは,本手法の駆動ブロックであり,特定の胸部疾患に関連する有意な解剖情報をモデルが学習するのに役立つ。 0.78
Our experiments find that classification performance improves from the baseline when we cascade a AAA module with a dense block. 実験の結果,AAAモジュールを高密度ブロックでカスケードすると,分類性能がベースラインから向上することがわかった。 0.76
Here, the baseline denotes the backbone model, DenseNet-121, without any integrated AAA modules. ここではベースラインは、AAAモジュールを統合せずにバックボーンモデルであるDenseNet-121を表す。 0.72
However, adding an AAA module with all the dense blocks does not enhance the performance. しかし、すべての高密度ブロックをAAAモジュールに追加しても性能は向上しない。 0.79
Because low-level spatial features from dense block1 and dense block-2 might have outlier information which deteriorates the model performance by causing the model to give attention to noisy information. 高密度ブロック1と高密度ブロック2の低レベル空間特徴は、ノイズ情報に注意を向けることでモデル性能を悪化させるような外れ値情報を持つ可能性がある。 0.69
Again, applying AAA only on the highest level of features, in our case dense block-4, does not guarantee the best performance. 繰り返しになるが、AAAを最高レベルの機能のみに適用することは、我々の場合、高密度ブロック-4は最高の性能を保証しない。 0.68
Because due to subsequent pooling in these dense blocks, some important information may be lost in the later dense blocks presented in the previous blocks. これらの密閉ブロックにおけるその後のプーリングのため、いくつかの重要な情報は、以前のブロックで示される後の密閉ブロックで失われる可能性がある。 0.57
To evaluate the efficacy of this effect, we have tested different levels of anatomy-aware attention on the NIH dataset. この効果の有効性を評価するため,nihデータセット上で異なるレベルの解剖学的注意をテストした。 0.70
First, we only used an AAA module with dense block-4. まず、高密度ブロック4のAAAモジュールのみを使用しました。 0.69
This experiment is denoted by anatomy aware attention level-1. この実験は解剖学的注意レベル1で示される。 0.73
After that, we used one AAA module with dense block-4 and another one with dense block-3. その後,高密度ブロック4のAAAモジュールと高密度ブロック3のAAAモジュールを用いた。 0.70
We denote this experiment by anatomy aware attention level-2. この実験を解剖学的注意レベル2で示す。 0.72
Finally, we applied the AAA module with dense blocks-2,3,4 and referred to it as anatomy aware attention level-3. 最後に,AAAモジュールに高密度ブロック-2,3,4を適用し,解剖学的注意レベル3。 0.70
The experimental results are provided in Table IV. 実験結果は表IVに記載されている。 0.75
The results show that classification performance improves when going from AAA level-1 to level-2 while it decreases when using level-3. その結果,AAAレベル1からレベル2に進むと分類性能が向上し,レベル3を使用すると低下することがわかった。 0.67
E. Effectiveness of PWAP modules E. PWAPモジュールの有効性 0.80
As discussed in Sec III-C, we have proposed a novel PWAP module with learnable parameters to tweak the relevant area of the feature space before pooling. Sec III-Cで議論されているように、我々はプール前に特徴空間の関連領域を微調整する学習可能なパラメータを持つ新しいPWAPモジュールを提案している。 0.64
To show the effectiveness of PWAP modules, we replace all the PWAP in Anatomy X-Net with average pooling, max pooling, and generalized mean pooling [41] respectively and run the experiment while keeping all the other hyperparameters the same. PWAP モジュールの有効性を示すため,解剖学 X-Net における全ての PWAP を平均プール,最大プール,一般化平均プール [41] に置き換え,他のすべてのハイパーパラメータを同一に保ちながら実験を行う。 0.88
The results shown in Table V depicts the effectiveness of the proposed module. 表Vに示す結果は,提案したモジュールの有効性を示す。 0.82
In Fig 5, the feature space before and after passing through the PWAP layer is shown. 図5では、PWAP層を通過する前後の特徴空間を示す。 0.63
The PWAP module tweaks the feature space to focus on the lesion areas more prominently by removing unwanted attention. pwapモジュールは特徴空間を調整し、不要な注意を取り除き、病変領域に焦点を合わせる。
訳抜け防止モード: PWAPモジュールは機能空間を微調整する 望ましくない注意を 取り除いて より顕著に 病変領域に焦点を合わせる。
0.77
TABLE IV: COMPARISON OF THE EFFECTIVENESS OF INTEGRATING THE PROPOSED ANATOMY-AWARE ATTENTION (AAA) MODULE AT VARIOUS STAGES OF THE BACKBONE NETWORK. 表 iv: バックボーンネットワークの様々な段階で提案された解剖学的注意(aaa)モジュールを統合する効果の比較。 0.61
Model AAA level-1 AAA level-2 AAA level-3 モデル AAAレベル1 AAAレベル2 AAAレベル3 0.78
Block Configuration Block Configuration 0.85
DenseBlock-4 + AAA Block DenseBlock-3,4 + AAA Blocks DenseBlock-2,3,4 + AAA Blocks DenseBlock-4 + AAA Block DenseBlock-3,4 + AAA Blocks DenseBlock-2,3,4 + AAA Blocks 0.61
AUC 0.8348 0.8401 0.8371 AUC 0.8348 0.8401 0.8371 0.53
9 Fig. 5: Demonstration of feature space recalibration performed by the PWAP module. 9 フィギュア。 5:PWAPモジュールによる特徴空間の校正の実証。 0.66
The first row depicts the feature space derived from the DB-4 block. 最初の行はDB-4ブロックから派生した特徴空間を表す。 0.76
The second row shows the recalibrated feature space by the PWAP module before pooling. 2行目はプール前にpwapモジュールによって再調整された機能空間を示す。 0.52
The PWAP module tweaks the feature space to focus on the lesion areas more firmly by removing unwanted attention. pwapモジュールは、不要な注意を取り除き、特徴空間を微調整し、病変領域に集中させる。
訳抜け防止モード: PWAPモジュールは機能空間を微調整する 望ましくない注意を 取り除いて よりしっかり 病変領域に集中する。
0.75
TABLE V: PERFORMANCE COMPARISON OF THE PROPOSED PROBABILISTIC WEIGHTED AVERAGE POOLING (PWAP) WITH OTHER POOLING METHODS ON THE NIH DATASET. 表 v: 提案する確率的重み付き平均プーリング(pwap)とnihデータセット上の他のプーリングメソッドのパフォーマンスの比較。 0.44
Pooling Type Average Pooling Max Pooling Generalized Mean Pooling PWAP プール型平均プーリング 最大プーリング 一般化平均プーリングpwap 0.70
AUC 0.8388 0.8341 0.8392 0.8401 AUC 0.8388 0.8341 0.8392 0.8401 0.50
F. Effect of Anatomy Mask Dimension F. 解剖学的マスク次元の影響 0.75
Incorporating anatomy masks at their original resolution in high-level feature space maps encoded by dense blocks is computationally highly intensive. 密度の高いブロックで符号化された高レベル特徴空間マップに元の解像度で解剖学的マスクを組み込むことは、計算量的に非常に集中的である。 0.54
Due to hardware constraints, the feature spaces are up-sampled while masks are downsampled to an intermediate shape. ハードウェアの制約により、特徴空間はアップサンプリングされ、マスクは中間形状にダウンサンプリングされる。 0.67
We present the performance results of our proposed anatomy x-net on the different intermediate dimensions of anatomy masks in Table VI. 表VIにおける解剖学マスクの異なる中間次元における解剖学x-netの性能について述べる。 0.75
Here, we observe that the performance of our model improves as we increase the dimension of the anatomy masks. ここでは, 解剖学的マスクの寸法を増やすことにより, モデルの性能が向上することを確認した。 0.75
This implies that, with the larger intermediate dimensions of anatomy masks, we can possibly further improve the performance of our proposed model. このことから,解剖学マスクの中間次元が大きくなると,提案モデルの性能がさらに向上する可能性が示唆された。 0.79
TABLE VI: EFFECT OF ANATOMY MASK DIMENSION. TABLE VI: ANATOMY MASK DIMENSIONの効果。 0.77
Mask Dimension AUC 42×42 0.8353 マスク次元AUC 42×42 0.8353 0.57
56×56 0.8384 56×56 0.8384 0.50
70×70 0.8388 70×70 0.8388 0.50
84×84 0.8401 84×84 0.8401 0.50
VI. CONCLUSION In this paper, we propose a semi-supervised anatomy-aware convolutional neural network for thoracic disease classification named the Anatomy X-Net. VI。 結論 本稿では,胸部疾患分類のための半教師付き畳み込みニューラルネットワークanatomy x-netを提案する。 0.68
Departing from the previous works that rely on the chest x-ray image only or attention mechanisms guided by the model prediction, the proposed network is guided by prior anatomy segmentation information to act similar to a radiologist by focusing on relevant anatomical regions associated with the thoracic disease. 胸部x線画像のみに依存する先行研究や、モデル予測による注意機構から外れて、提案するネットワークは、胸部疾患に関連する解剖学的領域に焦点をあてて、放射線科医と同じような働きをする先行解剖学区分情報によって誘導される。 0.73
Extensive Output of DB-4Output of PWAP 広範囲 PWAPのDB-4出力出力 0.65
英語(論文から抽出)日本語訳スコア
experiments demonstrate that combining our novel AAA and PWAP modules within a backbone Densenet-121 model in a unified framework yields state-of-the-art performance on the NIH chest x-ray dataset. AAAとPWAPの新たなモジュールをバックボーンDensenet-121モデルに統一したフレームワークに組み込むことで、NIH胸部X線データセット上で最先端のパフォーマンスが得られることを示した。 0.60
The Anatomy X-Net achieves an average AUC score of 0.8439 on the official NIH test set, surpassing the former best performing method published on this dataset. Anatomy X-Net は公式 NIH テストセットで平均 AUC スコア 0.8439 を達成し、このデータセットで公開された以前の最高のパフォーマンスメソッドを上回っている。 0.71
The proposed method also reaches an AUC of 0.9020 on the official validation split of the Stanford CheXpert dataset, providing improved performance compared to existing methods. 提案手法は、Stanford CheXpertデータセットの正式な検証分割に関するAUCも0.9020に達し、既存の手法と比較してパフォーマンスが向上した。 0.67
REFERENCES [1] S. Raoof, D. Feigin, A. 参考 [1] S. Raoof, D. Feigin, A。 0.70
Sung, S. Raoof, L. Irugulpati, and E. C. Rosenow III, “Interpretation of plain chest roentgenogram,” Chest, vol. Sung, S. Raoof, L. Irugulpati, E. C. Rosenow III, “Interpretation of plain chest roentgenogram, Chest, vol。 0.85
141, no. 2, pp. 141, No. 2、p。 0.73
545–558, 2012. 545–558, 2012. 0.84
[2] P. Yu, H. Xu, Y. Zhu, C. Yang, X. [2] P. Yu, H. Xu, Y. Zhu, C. Yang, X 0.98
Sun, and J. Zhao, “An automatic computer-aided detection scheme for pneumoconiosis on digital chest radiographs,” J. Digit. Sun, and J. Zhao, “デジタル胸部X線写真における肺炎の自動検出スキーム”。
訳抜け防止モード: Sun, and J. Zhao, “A automatic computer - helped detection scheme for pneumoconiosis on digital chest radiographs” J.Digit。
0.89
Imaging, vol. 24, no. 画像化、vol。 24時24分 0.53
3, pp. 382–393, 2011. 3、p。 382–393, 2011. 0.74
[3] S. Jaeger, A. Karargyris, S. Candemir, L. Folio, J. Siegelman, F. Callaghan, Z. Xue, K. Palaniappan, R. K. Singh, S. Antani et al , “Automatic tuberculosis screening using chest radiographs,” IEEE Trans. S. Jaeger, A. Karargyris, S. Candemir, L. Folio, J. Siegelman, F. Callaghan, Z. Xue, K. Palaniappan, R. K. Singh, S. Antani et al, “Automatic tuberculosis screening using chest radiographs”[3] IEEE Trans。 0.97
Med. Imag., vol. 薬だ Imag., vol. 0.67
33, no. 2, pp. 33、ノー。 2、p。 0.69
233–245, 2013. 233–245, 2013. 0.84
[4] G. Litjens, T. Kooi, B. E. Bejnordi, A. G. Litjens, T. Kooi, B. E. Bejnordi, A. 0.82
A. A. Setio, F. Ciompi, M. Ghafoorian, J. A。 A. Setio, F. Ciompi, M. Ghafoorian, J。 0.82
A. Van Der Laak, B. A。 原題はVan der Laak, B。 0.72
Van Ginneken, and C. I. S´anchez, “A survey on deep learning in medical image analysis,” Med. van ginnekenとc.i.s.anchezは、“医療画像分析におけるディープラーニングに関する調査”だ。 0.74
Image Anal., vol. Image Anal., vol. 0.85
42, pp. 60–88, 2017. 42, pp。 60–88, 2017. 0.82
[5] X. Wang, Y. Peng, L. Lu, Z. Lu, M. Bagheri, and R. M. Summers, “Chestx-ray8: Hospital-scale chest x-ray database and benchmarks on weakly-supervised classification and localization of common thorax diseases,” in Proc. 5] X. Wang, Y. Peng, L. Lu, Z. Lu, M. Bagheri, R. M. Summers, “Chestx-ray8: Hospital-scale chest x-ray database and benchmarks on weakly-supervised classification and localization of common thorax disease”. Proc. 0.91
IEEE CVPR, 2017, pp. IEEE CVPR、2017年。 0.65
3462–3471. 3462–3471. 0.71
[6] J. Deng, W. Dong, R. Socher, L. Li, Kai Li, and Li Fei-Fei, “Imagenet: A large-scale hierarchical image database,” in IEEE CVPR, 2009, pp. J. Deng, W. Dong, R. Socher, L. Li, Kai Li, Li Fei-Fei, “Imagenet: A Large-scale hierarchical image database” in IEEE CVPR, 2009 pp。 0.82
248–255. [7] S. Liu and W. Deng, “Very deep convolutional neural network based image classification using small training sample size,” in ACPR, 2015, pp. 248–255. S. Liu and W. Deng, “Very Deep Convolutional Neural Network based image classification using small training sample size” in ACPR, 2015。
訳抜け防止モード: 248–255. 7 ] s. liu と w. deng は,“非常に深い畳み込みニューラルネットワークに基づく画像分類”を,小さなトレーニングサンプルサイズで行った。 acpr , 2015 , pp。
0.76
730–734. [8] C. Szegedy, Wei Liu, Yangqing Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, “Going deeper with convolutions,” in IEEE CVPR, 2015, pp. 730–734. 8] c. szegedy, wei liu, yangqing jia, p. sermanet, s. reed, d. anguelov, d. erhan, v. vanhoucke, a. rabinovich, “going deep with convolutions” in ieee cvpr, 2015 pp. (英語) 0.71
1–9. [9] K. He, X. Zhang, S. Ren, and J. 1–9. [9]K.He,X.Zhang,S. Ren,J. 0.76
Sun, “Deep residual learning for image sun, “deep residual learning for image” 0.87
recognition,” in IEEE CVPR, 2016, pp. IEEE CVPR, 2016, pp。 0.41
770–778. [10] Y. Tang, X. Wang, A. P. Harrison, L. Lu, J. Xiao, and R. Summers, “Attention-guided curriculum learning for weakly supervised classification and localization of thoracic diseases on chest radiographs,” in MLMI@MICCAI, 2018. 770–778. Y. Tang, X. Wang, A. P. Harrison, L. Lu, J. Xiao, R. Summers, “Attention-guided curriculum learning for weakly supervised classification and localization of thoracic disease on chest radiographs”, MLMI@MICCAI, 2018。 0.77
[11] B. Chen, J. Li, G. Lu, and D. Zhang, “Lesion location attention guided network for multi-label thoracic disease classification in chest x-rays,” IEEE J. of Biomed. B. Chen, J. Li, G. Lu, D. Zhang, “Lesion location attention guided network for multi-label thoracic disease classification in chest x-rays”, IEEE J. of Biomed。 0.86
and Health Inform., pp. とHealth Inform., pp。 0.71
2016–2027, 2020. 2016–2027, 2020. 0.84
[12] Q. Guan and Y. Huang, “Multi-label chest x-ray image classification via category-wise residual attention learning,” Pattern Recognit. Q. Guan, Y. Huang, “Multi-label chest x-ray image classification via category-wise residual attention learning”, Pattern Recognit。 0.89
Letters, vol. 130, pp. 手紙、Vol。 130, pp。 0.72
259–266, 2020. 259–266, 2020. 0.84
[13] H. Wang, S. Wang, Z. Qin, Y. Zhang, R. Li, and Y. Xia, “Triple attention learning for classification of 14 thoracic diseases using chest radiography,” Med. H. Wang, S. Wang, Z. Qin, Y. Zhang, R. Li, Y. Xia, “胸部X線撮影による14の胸部疾患の分類のための3つの注意学習”。 0.83
Image Anal., vol. Image Anal., vol. 0.85
67, p. 101846, 2020. 67,p.101846,2020。 0.81
[14] C. Clarke and A. Dux, Chest X-rays for medical students. C. Clarke and A. Dux, Chest X-rays for medical students 0.76
John Wiley & Sons, 2017. ジョン・ワイリー 2017年、アンド・サンズ。 0.54
[15] P. Rajpurkar, J. Irvin, K. Zhu, B. Yang, H. Mehta, T. Duan, D. Ding, A. Bagul, C. Langlotz, K. Shpanskaya, M. Lungren, and A. Ng, “Chexnet: Radiologist-level pneumonia detection on chest x-rays with deep learning,” ArXiv, vol. 15] p. rajpurkar, j. irvin, k. zhu, b. yang, h. mehta, t. duan, d. ding, a. bagul, c. langlotz, k. shpanskaya, m. lungren, a. ng, “chexnet: radiologist-level pneumonia detection on chest x-rays with deep learning”。 0.81
abs/1711.05225, 2017. abs/1711.05225, 2017 0.68
[16] C. Yan, J. Yao, R. Li, Z. Xu, and J. Huang, “Weakly supervised deep learning for thoracic disease classification and localization on chest x-rays,” in Proc. [16]C. Yan, J. Yao, R. Li, Z. Xu, J. Huang, “Weakly supervised Deep Learning for thoracic disease classification and Localization on chest x-rays”, Proc. Proc. 0.95
ACM Int. Conf. ACM所属。 Conf 0.58
on Bioinformatics, Computational Biology, and Health Informatics, 2018. バイオインフォマティクス,計算生物学,健康情報学,2018年。 0.78
[17] J. Irvin, P. Rajpurkar, M. Ko, Y. Yu, S. Ciurea-Ilcus, C. Chute, H. Marklund, B. Haghgoo, R. Ball, K. Shpanskaya et al , “Chexpert: A large chest radiograph dataset with uncertainty labels and expert comparison,” in Proc. J. Irvin, P. Rajpurkar, M. Ko, Y. Yu, S. Ciurea-Ilcus, C. Chute, H. Marklund, B. Haghgoo, R. Ball, K. Shpanskaya et al , “Chexpert: A large chest radiograph dataset with uncertainty labels and expert comparison” in Proc. 0.95
AAAI Artif. AAAIアーティファクト。 0.52
Intell., 2019, pp. Intell., 2019, pp。 0.83
590–597. [18] A. Mondal, A. Agarwal, J. Dolz, and C. Desrosiers, “Revisiting cyclegan for semi-supervised segmentation,” ArXiv, vol. 590–597. A. Mondal, A. Agarwal, J. Dolz, C. Desrosiers, “Revisiting cyclegan for semi-supervised segmentation, ArXiv, vol. 0.75
abs/1908.11569, 2019. abs/1908.11569, 2019 0.69
10 [19] J. Shiraishi, S. Katsuragawa, J. Ikezoe, T. Matsumoto, T. Kobayashi, K. Komatsu, M. Matsui, H. Fujita, Y. Kodera, and K. Doi, “Development of a digital image database for chest radiographs with and without a lung nodule: receiver operating characteristic analysis of radiologists’ detection of pulmonary nodules.” AJR Am. 10 [19]J.白石,S.桂川,J.池添,T.松本,T.小林,K.小松,M.松井,H.藤田,Y.小寺,およびK.土井,「肺結節および肺結節のない胸部X線写真用デジタル画像データベースの開発:放射線科医による肺結節検出の特徴解析を受信機で行う」 0.83
J. Roentgenol., vol. J。 Roentgenol, vol。 0.77
174 1, pp. 71–4, 2000. pp. 174。 71–4, 2000. 0.70
[20] Y. Shao, Y. Gao, Y. Guo, Y. Shi, X. Yang, and D. Shen, “Hierarchical lung field segmentation with joint shape and appearance sparse learning,” IEEE Trans. [20] Y. Shao, Y. Gao, Y. Guo, Y. Shi, X. Yang, D. Shen, “階層的肺野分画と関節形状と外観のスパース学習” IEEE Trans。 0.85
Med. Imag., vol. 薬だ Imag., vol. 0.67
33, no. 9, pp. 33、ノー。 9、p。 0.71
1761–1780, 2014. 1761–1780, 2014. 0.84
[21] B. van Ginneken, M. B. Stegmann, and M. Loog, “Segmentation of anatomical structures in chest radiographs using supervised methods: a comparative study on a public database,” Med. 21] b. van ginneken氏、m. b. stegmann氏、m. loog氏は、"教師付き手法による胸部x線写真中の解剖学的構造: 公開データベースの比較研究"について述べている。
訳抜け防止モード: B. van Ginneken, M. B. Stegmann, M. Loog, “Segmentation of anatomical structure in chest radiographs using supervised methods : a comparative study on a public database, Med。
0.76
Image Anal., vol. Image Anal., vol. 0.85
10, no. 1, pp. 19–40, 2006. 10だ 1、p。 19–40, 2006. 0.62
[22] B. Ibragimov, B. Likar, F. Pernuˇs, and T. Vrtovec, “Accurate landmarkbased segmentation by incorporating landmark misdetections,” in IEEE ISBI, 2016, pp. B. Ibragimov, B. Likar, F. Pernu's, T. Vrtovec, “Accurate landmark based segmentation by integring the landmark misdeectctions” in IEEE ISBI, 2016 pp。 0.76
1072–1075. 1072–1075. 0.71
[23] T. Xu, M. Mandal, R. Long, I. Cheng, and A. Basu, “An edge-region force guided active shape approach for automatic lung field detection in chest radiographs,” Comput. T.Xu, M. Mandal, R. Long, I. Cheng, A. Basu, “エッジ領域の力は胸部X線写真の自動肺野検出のためのアクティブな形状アプローチを導いた”。 0.79
Med. Imaging Graph., vol. 薬だ Imaging Graph., vol. 0.67
36, no. 6, pp. 36だ 6, pp。 0.59
452–463, 2012. 452–463, 2012. 0.84
[24] M. Kholiavchenko, 24] m. kholiavchenko. 0.70
I. Sirazitdinov, K. Kubrak, R. Badrutdinova, R. Kuleev, Y. Yuan, T. Vrtovec, and B. Ibragimov, “Contour-aware multilabel chest x-ray organ segmentation,” Int. I. Sirazitdinov, K. Kubrak, R. Badrutdinova, R. Kuleev, Y. Yuan, T. Vrtovec, B. Ibragimov, “Contour-aware multilabel chest X-ray organ segmentation”。 0.92
J. Comput. Assist. J.Comput アシスト。 0.69
Radiol. Surg., vol. ラジオル Surg., vol. 0.70
15, no. 3, pp. 425–436, 2020. 15だ 3、p。 425–436, 2020. 0.62
[25] F. Munawar, S. Azmat, T. Iqbal, C. Gr¨”onlund, and H. Ali, “Segmentation of Lungs in Chest X-Ray Image Using Generative Adversarial Networks,” IEEE Access, vol. H. Ali, “Segmentation of Lungs in Chest X-Ray Image Using Generative Adversarial Networks”, IEEE Access, vol. “Segmentation of Lungs in Chest X-Ray Image Using Generative Adversarial Networks”。
訳抜け防止モード: [25 ]F. Munawar, S. Azmat, T. Iqbal, C.Gr"onlund, and H. Ali, "Seegmentation of Lungs in Chest X - Ray Image Using Generative Adversarial Networks" IEEE Access , vol。
0.91
8, pp. 153 535–153 545, 2020. 8, pp。 153 535–153 545, 2020. 0.86
[26] J. C. Souza, J. O. [26]J.C. Souza,J.O. 0.87
B. Diniz, J. L. Ferreira, G. L. F. da Silva, A. C. Silva, and A. C. de Paiva, “An automatic method for lung segmentation and reconstruction in chest x-ray using deep neural networks,” Comput. b. diniz, j. l. ferreira, g. l. f. da silva, a. c. silva, a. c. de paiva, “深層ニューラルネットワークを用いた胸部x線における肺の分画と再構成のための自動的方法”、とcomputは述べている。
訳抜け防止モード: B. Diniz, J. L. Ferreira, G. L. F. da Silva A.C. SilvaとA.C. de Paivaは、ディープニューラルネットワークを使って、胸部X線による肺の分画と再構築を自動化する。
0.71
Methods Programs Biomed., vol. 手法プログラム バイオメディエーション, vol. 0.85
177, pp. 285–296, 2019. 177、p。 285–296, 2019. 0.78
[27] A. Tolkachev, I. Sirazitdinov, M. Kholiavchenko, T. Mustafaev, and B. Ibragimov, “Deep Learning for Diagnosis and Segmentation of Pneumothorax: The Results on The Kaggle Competition and Validation Against Radiologists,” IEEE J. Biomed. A. Tolkachev, I. Sirazitdinov, M. Kholiavchenko, T. Mustafaev, and B. Ibragimov, “Deep Learning for diagnosis and Segmentation of Pneumothorax: The Results on the Kaggle Competition and Validation against Radioologists”. IEEE J. Biomed. 0.87
Health Inform., 2020. 健康情報、2020年。 0.83
[28] H.-J. Chen, S.-J. [28]H.J. Chen, S.-J。 0.81
Ruan, S.-W. Huang, and Y.-T. Peng, “Lung X-ray Segmentation using Deep Convolutional Neural Networks on ContrastEnhanced Binarized Images,” Mathematics, vol. Ruan, S.-W. Huang, Y.-T. Peng, “Lung X-ray Segmentation using Deep Convolutional Neural Networks on ContrastEnhanced Binarized Images”, Mathematics, vol. 0.96
8, no. 4, p. 545, 2020. 8位はノー。 4p.545、2020年。 0.76
[29] L. Yao, E. Poblenz, D. Dagunts, B. Covington, D. Bernard, and K. Lyman, “Learning to diagnose from scratch by exploiting dependencies among labels,” ArXiv, vol. L. Yao, E. Poblenz, D. Dagunts, B. Covington, D. Bernard, K. Lyman, “ラベル間の依存関係を利用してゼロから診断することを学ぶこと”, ArXiv, vol. 0.85
abs/1710.10501, 2017. abs/1710.10501, 2017 0.67
[30] G. Huang, Z. Liu, L. Van Der Maaten, and K. Q. Weinberger, “Densely connected convolutional networks,” in IEEE CVPR, 2017, pp. G. Huang, Z. Liu, L. Van Der Maaten, K. Q. Weinberger, “Densely connected convolutional network” in IEEE CVPR, 2017 pp. 0.76
2261– 2269. 2261– 2269. 0.94
[31] H. Sak, A. W. Senior, and F. Beaufays, “Long short-term memory recurrent neural network architectures for large scale acoustic modeling,” in INTERSPEECH, 2014, pp. [31] h. sak, a. w. senior, and f. beaufays, “long short-term memory recurrent neural network architectures for large scale acoustic modeling” in interspeech, 2014 pp。 0.86
338–342. [32] X. Wang, Y. Peng, L. Lu, Z. Lu, and R. Summers, “Tienet: Textimage embedding network for common thorax disease classification and reporting in chest x-rays,” IEEE CVPR, pp. 338–342. X. Wang, Y. Peng, L. Lu, Z. Lu, R. Summers, “Tienet: Textimage embedded network for common thorax disease classification and reporting in chest x-rays”, IEEE CVPR, pp。 0.76
9049–9058, 2018. 9049–9058, 2018. 0.84
[33] T. K. K. Ho and J. Gwak, “Multiple feature integration for classification of thoracic disease in chest radiography,” Appl. 胸部x線撮影で胸部疾患を分類するためのマルチプル機能統合(multiple feature integration for classification of thoracic disease in chest radiography)”とapplは述べている。 0.64
Sci., vol. Sci., vol. 0.85
9, no. 19, p. 4130, 2019. 9番だ 19p. 4130, 2019。 0.60
[34] H. Liu, L. Wang, Y. Nan, F. Jin, Q. Wang, and J. Pu, “SDFN: Segmentation-based deep fusion network for thoracic disease classification in chest x-ray images,” Comput. [34] h. liu, l. wang, y. nan, f. jin, q. wang, j. pu, “sdfn: segmentation-based deep fusion network for thoracic disease classification in chest x-ray images”とcomputは述べる。
訳抜け防止モード: [34 ]H.Lu,L.Wang,Y.Nan, F. Jin, Q. Wang, J. Pu, “SDFN : Segmentation - based deep fusion network for thoracic disease classification in chest x -ray images, 。
0.91
Med. Imaging Graph., vol. 薬だ Imaging Graph., vol. 0.67
75, pp. 66–73, 2019. 75, pp。 66–73, 2019. 0.83
[35] B. Chen, J. Li, X. Guo, and G. Lu, “DualCheXNet: dual asymmetric feature learning for thoracic disease classification in chest x-rays,” Biomed. B. Chen, J. Li, X. Guo, G. Lu, “DualCheXNet:胸部X線における胸部疾患分類のための二重非対称特徴学習”。 0.81
Signal Process. and Control, vol. 信号処理。 and control, vol. 0.76
53, p. 101554, 2019. 53, pp. 101554, 2019 0.79
[36] L. Luo, L. Yu, H. Chen, Q. Liu, X. Wang, J. qi Xu, and P. Heng, “Deep mining external imperfect data for chest x-ray disease screening,” IEEE Trans. L. Luo, L. Yu, H. Chen, Q. Liu, X. Wang, J. qi Xu, P. Heng, “Deep mining external imperfect data for chest X-ray disease screening”, IEEE Trans。 0.86
Med. Imag., pp. 薬だ Imag., pp. 0.67
3583–3594, 2020. 3583–3594, 2020. 0.84
[37] H. H. Pham, T. T. Le, D. Q. Tran, D. T. Ngo, and H. Q. Nguyen, “Interpreting chest x-rays via cnns that exploit hierarchical disease dependencies and uncertainty labels,” Neurocomputing, 2021. [37] h. h. pham, t. t. le, d. q. tran, d. t. ngo, h. q. nguyen, “階層的疾患依存性と不確実性ラベルを利用するcnnを介して胸部x線を解釈する”。 0.64
[38] S. Ioffe and C. Szegedy, “Batch normalization: Accelerating deep network training by reducing internal covariate shift,” in Proc. [38] S. Ioffe氏とC. Szegedy氏は,“バッチ正規化:内部共変量シフトの削減によるディープネットワークトレーニングの促進”とProcで述べている。
訳抜け防止モード: [38 ] S. Ioffe と C. Szegedy, “バッチ正規化: Procでは、内部共変量シフトを減らし、ディープネットワークトレーニングを加速する。
0.76
ICML, 2015, pp. ICML、2015年。 0.52
448–456. [39] J. Hu, L. Shen, and G. Sun, “Squeeze-and-excitati on networks,” in IEEE 448–456. [39] J. Hu, L. Shen, G. Sun, “Squeeze-and-excitati on network” in IEEE 0.81
[40] D. P. Kingma and J. Ba, “Adam: A method for stochastic optimization,” 40] D. P. Kingma, J. Ba, “Adam: A method for stochastic optimization” 0.83
CVPR, 2018, pp. CVPR、2018年。 0.55
7132–7141. 7132–7141. 0.71
CoRR, vol. CoRR, vol。 0.79
abs/1412.6980, 2015. abs/1412.6980, 2015 0.69
[41] M. Berman, H. J´egou, A. Vedaldi, I. Kokkinos, and M. Douze, “Multigrain: a unified image embedding for classes and instances,” ArXiv, vol. M. Berman, H. J ́egou, A. Vedaldi, I. Kokkinos, M. Douze, “Multigrain: a unified image embedding for class and instance”, ArXiv, vol。
訳抜け防止モード: [41 ]M. Berman, H. J ́egou, A. Vedaldi, I. Kokkinos, M. Douze, “Multigrain : a unified image embedded for class and instance” ArXiv, vol。
0.92
abs/1902.05509, 2019. abs/1902.05509, 2019 0.70
                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。