論文の概要: Explainable Deep Learning for Pediatric Pneumonia Detection in Chest X-Ray Images
- arxiv url: http://arxiv.org/abs/2601.09814v1
- Date: Wed, 14 Jan 2026 19:21:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.869504
- Title: Explainable Deep Learning for Pediatric Pneumonia Detection in Chest X-Ray Images
- Title(参考訳): 胸部X線画像における小児肺炎検出のための説明可能な深層学習
- Authors: Adil O. Khadidos, Aziida Nanyonga, Alaa O. Khadidos, Olfat M. Mirza, Mustafa Tahsin Yilmaz,
- Abstract要約: 肺炎は世界中で小児の致死率と死亡率の主要な原因となっている。
本研究は,小児肺炎の自動検出のための2つの最先端畳み込みニューラルネットワーク(CNN)アーキテクチャを比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Background: Pneumonia remains a leading cause of morbidity and mortality among children worldwide, emphasizing the need for accurate and efficient diagnostic support tools. Deep learning has shown strong potential in medical image analysis, particularly for chest X-ray interpretation. This study compares two state-of-the-art convolutional neural network (CNN) architectures for automated pediatric pneumonia detection. Methods: A publicly available dataset of 5,863 pediatric chest X-ray images was used. Images were preprocessed through normalization, resizing, and data augmentation to enhance generalization. DenseNet121 and EfficientNet-B0 were fine-tuned using pretrained ImageNet weights under identical training settings. Performance was evaluated using accuracy, F1-score, Matthews Correlation Coefficient (MCC), and recall. Model explainability was incorporated using Gradient-weighted Class Activation Mapping (Grad-CAM) and Local Interpretable Model-agnostic Explanations (LIME) to visualize image regions influencing predictions. Results: EfficientNet-B0 outperformed DenseNet121, achieving an accuracy of 84.6%, F1-score of 0.8899, and MCC of 0.6849. DenseNet121 achieved 79.7% accuracy, an F1-score of 0.8597, and MCC of 0.5852. Both models demonstrated high recall values above 0.99, indicating strong sensitivity to pneumonia detection. Grad-CAM and LIME visualizations showed consistent focus on clinically relevant lung regions, supporting the reliability of model decisions. Conclusions: EfficientNet-B0 provided a more balanced and computationally efficient performance compared to DenseNet121, making it a strong candidate for clinical deployment. The integration of explainability techniques enhances transparency and trustworthiness in AI-assisted pediatric pneumonia diagnosis.
- Abstract(参考訳): 背景: 肺炎は世界中の小児の致死率と死亡率の主要な原因であり、正確かつ効率的な診断支援ツールの必要性を強調している。
深層学習は、特に胸部X線解釈において、医用画像解析において大きな可能性を示している。
本研究は,小児肺炎の自動検出のための2つの最先端畳み込みニューラルネットワーク(CNN)アーキテクチャを比較した。
方法: 小児胸部X線画像5,863枚を公開データセットとして用いた。
画像は、一般化を強化するために、正規化、再サイズ化、データ拡張によって前処理された。
DenseNet121とEfficientNet-B0は、トレーニング済みのImageNet重みを使って、同じトレーニング設定で微調整された。
精度,F1スコア,マシューズ相関係数(MCC),リコールを用いて評価した。
モデル説明性は、画像領域が予測に与える影響を可視化するために、勾配重み付きクラスアクティベーションマッピング(Grad-CAM)と局所解釈可能なモデル非依存説明(LIME)を用いて組み込まれた。
結果:効率の良いNet-B0はDenseNet121より優れ、精度は84.6%、F1スコアは0.8899、MCCは0.6849である。
DenseNet121の精度は79.7%、F1スコアは0.8597、MCCは0.5852である。
どちらのモデルも0.99以上の高いリコール値を示し、肺炎検出に対する強い感受性を示した。
Grad-CAM と LIME の可視化では, 臨床的に関連のある肺領域に一貫した焦点が当てられ, モデル決定の信頼性が向上した。
結論: 効率的なNet-B0は、DenseNet121よりもバランスよく、計算的に効率的なパフォーマンスを提供しており、臨床デプロイメントの候補として強くなっています。
説明可能性技術の統合により、AI支援型小児肺炎診断における透明性と信頼性が向上する。
関連論文リスト
- Deep Learning Approach for the Diagnosis of Pediatric Pneumonia Using Chest X-ray Imaging [0.0]
本研究では、ResNetRS、RegNet、EfficientNetV2といった最先端の畳み込みニューラルネットワーク(CNN)アーキテクチャの性能について検討する。
5,856個の小児画像からなる公開データセットから,1000個の胸部X線画像のキュレートされたサブセットを抽出した。
RegNetは92.4、感度が90.1、ResNetRS(精度:91.9、感度:89.3)とEfficientNetV2(精度:88.5、感度:88.1)が続いた。
論文 参考訳(メタデータ) (2025-12-31T00:07:06Z) - Weakly Supervised Pneumonia Localization from Chest X-Rays Using Deep Neural Network and Grad-CAM Explanations [0.0]
本研究は,胸部X線からの肺炎の分類と局在化のための弱教師付き深層学習フレームワークを提案する。
コストのかかるピクセルレベルのアノテーションの代わりに,画像レベルのラベルを用いて臨床的に意味のあるヒートマップを生成する。
論文 参考訳(メタデータ) (2025-11-01T08:44:24Z) - Explainable Deep Learning in Medical Imaging: Brain Tumor and Pneumonia Detection [0.0]
胸部X線画像におけるMRI画像と肺炎の脳腫瘍検出のための,説明可能なディープラーニングフレームワークを提案する。
DenseNet121は一貫してResNet50を94.3%、脳腫瘍では92.5パーセント、肺炎では89.1%、肺炎では84.4%で上回った。
論文 参考訳(メタデータ) (2025-10-21T22:44:40Z) - LightPneumoNet: Lightweight Pneumonia Classifier [0.0]
この研究では、スクラッチから構築された効率的で軽量な畳み込みニューラルネットワーク(CNN)であるLightPneumoNetを紹介した。
胸部X線画像5,856枚を用いて実験を行った。
独立テストセットでは,本モデルが優れた性能を示し,総合精度0.942,精度0.92,F1スコア0.96を実現した。
論文 参考訳(メタデータ) (2025-10-13T10:14:17Z) - From Embeddings to Accuracy: Comparing Foundation Models for Radiographic Classification [33.96915720287914]
ラジオグラフィー分類における軽量アダプタの訓練のための7つの基礎モデルからの埋め込みを評価する。
MedImageInsightの埋め込みとSVMとアダプタの組み合わせは、曲線(mAUC)における平均面積が93.1%に達した。
これらの軽量グループは計算効率が良く、数分でトレーニングし、CPU上で数秒で推論を行う。
論文 参考訳(メタデータ) (2025-05-16T03:39:46Z) - InfLocNet: Enhanced Lung Infection Localization and Disease Detection from Chest X-Ray Images Using Lightweight Deep Learning [0.5242869847419834]
本稿では,より軽量な深層学習に基づくセグメンテーション分類ネットワークを提案する。
胸部X線画像を用いた肺感染症の検出と局在性の向上を目的としている。
IoUは93.59%, Dice similarity Coefficient (DSC)は97.61%であった。
論文 参考訳(メタデータ) (2024-08-12T19:19:23Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - COVID-19 Detection Based on Self-Supervised Transfer Learning Using
Chest X-Ray Images [38.65823547986758]
胸部X線(CXR)画像から新型コロナウイルスを検出するための自己教師伝達学習法を提案する。
オープンなCOVID-19 CXRデータセットの定量的評価と,視覚検査のための質的結果について検討した。
論文 参考訳(メタデータ) (2022-12-19T07:10:51Z) - CIRCA: comprehensible online system in support of chest X-rays-based
COVID-19 diagnosis [37.41181188499616]
深層学習技術は、新型コロナウイルスの迅速検出と疾患の進行のモニタリングに役立つ。
5つの異なるデータセットを使用して、モデルトレーニングのための23の799 CXRの代表的なデータセットを構築した。
The U-Net-based model was developed to identified a clinically relevant region of the CXR。
論文 参考訳(メタデータ) (2022-10-11T13:30:34Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。