論文の概要: Comparative Analysis of Deep Learning Architectures for Multi-Disease Classification of Single-Label Chest X-rays
- arxiv url: http://arxiv.org/abs/2603.13392v1
- Date: Wed, 11 Mar 2026 07:52:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.156366
- Title: Comparative Analysis of Deep Learning Architectures for Multi-Disease Classification of Single-Label Chest X-rays
- Title(参考訳): シングルラベル胸部X線多値分類のためのディープラーニングアーキテクチャの比較解析
- Authors: Ali M. Bahram, Saman Muhammad Omer, Hardi M. Mohammed,
- Abstract要約: 本研究では,多型胸部疾患分類のための7つのディープラーニングアーキテクチャの比較検討を行った。
ConvNeXt-Tinyは92.31%の精度、95.70%のAUROCを達成し、MobileNetV2は3.5Mパラメータ、90.42%の精度、94.10%のAUROCを達成した。
以上の結果より,高精度胸部X線分類が過剰な計算資源を伴わずに達成できることが示唆された。
- 参考スコア(独自算出の注目度): 1.1470070927586018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chest X-ray imaging remains the primary diagnostic tool for pulmonary and cardiac disorders worldwide, yet its accuracy is hampered by radiologist shortages and inter-observer variability. This study presents a systematic comparative evaluation of seven deep learning architectures for multi-class chest disease classification: ConvNeXt-Tiny, DenseNet121, DenseNet201, ResNet50, ViT-B/16, EfficientNetV2-M, and MobileNetV2. A balanced dataset of 18,080 chest X-ray images spanning five disease categories (Cardiomegaly, COVID-19, Normal, Pneumonia, and Tuberculosis) was constructed from three public repositories and partitioned at the patient level to prevent data leakage. All models were trained under identical conditions using ImageNet-pretrained weights, standardized preprocessing, and consistent hyperparameters. All seven architectures exceeded 90% test accuracy. ConvNeXt-Tiny achieved the highest performance (92.31% accuracy, 95.70% AUROC), while MobileNetV2 emerged as the most parameter-efficient model (3.5M parameters, 90.42% accuracy, 94.10% AUROC), completing training in 48 minutes. Tuberculosis and COVID-19 classification was near-perfect (AUROC >= 99.97%) across all architectures, while Normal, Cardiomegaly, and Pneumonia presented greater challenges due to overlapping radiographic features. Grad-CAM visualizations confirmed clinically consistent attention patterns across disease categories. These findings demonstrate that high-accuracy multi-disease chest X-ray classification is achievable without excessive computational resources, with important implications for AI-assisted diagnosis in both resource-rich and resource-constrained healthcare settings.
- Abstract(参考訳): 胸部X線画像は、世界中の肺疾患や心臓疾患の主要な診断ツールであり続けているが、その精度は放射線医の不足とサーバ間変動によって妨げられている。
本研究では,マルチクラス胸部疾患分類のための7つのディープラーニングアーキテクチャ(ConvNeXt-Tiny,DenseNet121,DenseNet201,ResNet50,ViT-B/16,EfficientNetV2-M,MobileNetV2)を体系的に比較検討した。
18,080個の胸部X線像を3つのパブリックリポジトリから構築し,データ漏洩を防ぐために分離した。
すべてのモデルは、ImageNetでトレーニングされた重み付け、標準化された前処理、一貫性のあるハイパーパラメータを使用して、同じ条件下で訓練された。
7つのアーキテクチャはすべて90%の精度でテストされた。
ConvNeXt-Tinyは最高性能(92.31%の精度、95.70%のAUROC)を達成し、MobileNetV2は最もパラメータ効率の良いモデル(3.5Mパラメータ、90.42%の精度、94.10%のAUROC)として48分でトレーニングを終えた。
結核とCOVID-19の分類はすべてのアーキテクチャでほぼ完全な(AUROC>=99.97%)が、ノーマル、カルディオメガリー、肺炎は放射線学的特徴の重複により大きな課題を呈していた。
Grad-CAMの可視化は、疾患のカテゴリー間で臨床的に一貫した注意パターンを確認した。
以上の結果から,高精度胸部X線分類は過剰な計算資源を伴わずに達成可能であることが示唆された。
関連論文リスト
- Enhanced Chest Disease Classification Using an Improved CheXNet Framework with EfficientNetV2-M and Optimization-Driven Learning [1.0499611180329804]
オリジナルのCheXNetアーキテクチャは胸部X線写真の自動解析の可能性を示唆している。
より効率的なNetV2-Mによる胸部疾患の分類法を提案する。
論文 参考訳(メタデータ) (2025-12-08T05:02:47Z) - An Explainable Hybrid AI Framework for Enhanced Tuberculosis and Symptom Detection [55.35661671061754]
結核は、特に資源に制限された遠隔地において、重要な世界的な健康問題である。
本稿では, 胸部X線による疾患および症状の検出を, 2つの頭部と自己監督頭部を統合することで促進する枠組みを提案する。
本モデルでは, 新型コロナウイルス, 結核, 正常症例の鑑別で98.85%の精度が得られ, マルチラベル症状検出では90.09%のマクロF1スコアが得られた。
論文 参考訳(メタデータ) (2025-10-21T17:18:55Z) - Diagnosing COVID-19 Severity from Chest X-Ray Images Using ViT and CNN Architectures [0.0]
3つのソースをマージすることで、大規模なCOVID重症度データセットを作成します。
事前訓練されたDenseNet161モデルは3つの重大度予測問題において最善を尽くした。
平均絶対誤差は0.5676であり, 放射線技師が予測した重症度と比較すると最も高い回帰率を示した。
論文 参考訳(メタデータ) (2025-02-23T15:50:42Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - CIRCA: comprehensible online system in support of chest X-rays-based
COVID-19 diagnosis [37.41181188499616]
深層学習技術は、新型コロナウイルスの迅速検出と疾患の進行のモニタリングに役立つ。
5つの異なるデータセットを使用して、モデルトレーニングのための23の799 CXRの代表的なデータセットを構築した。
The U-Net-based model was developed to identified a clinically relevant region of the CXR。
論文 参考訳(メタデータ) (2022-10-11T13:30:34Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Predicting COVID-19 Pneumonia Severity on Chest X-ray with Deep Learning [57.00601760750389]
前頭部胸部X線画像の重症度予測モデルを提案する。
このようなツールは、エスカレーションやケアの非エスカレーションに使用できる新型コロナウイルスの肺感染症の重症度を測定することができる。
論文 参考訳(メタデータ) (2020-05-24T23:13:16Z) - JCS: An Explainable COVID-19 Diagnosis System by Joint Classification
and Segmentation [95.57532063232198]
新型コロナウイルス感染症2019(COVID-19)は、200カ国以上でパンデミックの流行を引き起こしている。
感染を制御するためには、感染した人々を識別し、分離することが最も重要なステップである。
本稿では,新型コロナウイルスの胸部CT診断をリアルタイムかつ説明可能な,新しい関節分類システム(JCS)を開発した。
論文 参考訳(メタデータ) (2020-04-15T12:30:40Z) - Machine-Learning-Based Multiple Abnormality Prediction with Large-Scale
Chest Computed Tomography Volumes [64.21642241351857]
19,993症例から36,316巻の胸部CTデータセットを収集,解析した。
自由テキストラジオグラフィーレポートから異常ラベルを自動的に抽出するルールベース手法を開発した。
胸部CTボリュームの多臓器・多臓器分類モデルも開発した。
論文 参考訳(メタデータ) (2020-02-12T00:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。