論文の概要: Explainable Deep Learning in Medical Imaging: Brain Tumor and Pneumonia Detection
- arxiv url: http://arxiv.org/abs/2510.21823v1
- Date: Tue, 21 Oct 2025 22:44:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 17:41:21.911075
- Title: Explainable Deep Learning in Medical Imaging: Brain Tumor and Pneumonia Detection
- Title(参考訳): 医用画像における説明可能な深層学習 : 脳腫瘍と肺炎検出
- Authors: Sai Teja Erukude, Viswa Chaitanya Marella, Suhasnadh Reddy Veluru,
- Abstract要約: 胸部X線画像におけるMRI画像と肺炎の脳腫瘍検出のための,説明可能なディープラーニングフレームワークを提案する。
DenseNet121は一貫してResNet50を94.3%、脳腫瘍では92.5パーセント、肺炎では89.1%、肺炎では84.4%で上回った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning (DL) holds enormous potential for improving medical imaging diagnostics, yet the lack of interpretability in most models hampers clinical trust and adoption. This paper presents an explainable deep learning framework for detecting brain tumors in MRI scans and pneumonia in chest X-ray images using two leading Convolutional Neural Networks, ResNet50 and DenseNet121. These models were trained on publicly available Kaggle datasets comprising 7,023 brain MRI images and 5,863 chest X-ray images, achieving high classification performance. DenseNet121 consistently outperformed ResNet50 with 94.3 percent vs. 92.5 percent accuracy for brain tumors and 89.1 percent vs. 84.4 percent accuracy for pneumonia. For better explainability, Gradient-weighted Class Activation Mapping (Grad-CAM) was integrated to create heatmap visualizations superimposed on the test images, indicating the most influential image regions in the decision-making process. Interestingly, while both models produced accurate results, Grad-CAM showed that DenseNet121 consistently focused on core pathological regions, whereas ResNet50 sometimes scattered attention to peripheral or non-pathological areas. Combining deep learning and explainable AI offers a promising path toward reliable, interpretable, and clinically useful diagnostic tools.
- Abstract(参考訳): 深層学習(DL)は、医療画像診断を改善する大きな可能性を秘めているが、ほとんどのモデルでは解釈可能性の欠如が臨床信頼と採用を妨げている。
本稿では, 胸部X線画像におけるMRIスキャンおよび肺炎の脳腫瘍を検出するための, ResNet50とDenseNet121の2つの主要な畳み込みニューラルネットワークを用いた説明可能なディープラーニングフレームワークを提案する。
これらのモデルは、7,023の脳MRI画像と5,863の胸部X線画像からなる公開可能なKaggleデータセットに基づいてトレーニングされ、高い分類性能を実現した。
DenseNet121は一貫してResNet50を94.3%、脳腫瘍では92.5パーセント、肺炎では89.1%、肺炎では84.4%で上回った。
より説明しやすいように、グラディエント重み付きクラス活性化マッピング(Grad-CAM)が統合され、テスト画像に重畳されたヒートマップの可視化が作成され、意思決定プロセスにおいて最も影響力のある画像領域が示される。
興味深いことに、両モデルとも正確な結果が得られたが、Grad-CAMは、DenseNet121が一貫してコアの病理領域に焦点を当てていることを示し、ResNet50は時々周辺または非病理領域に注意を向けていた。
ディープラーニングと説明可能なAIを組み合わせることで、信頼性、解釈可能、臨床的に有用な診断ツールへの有望な道が開かれる。
関連論文リスト
- Comparative Analysis of Vision Transformers and Convolutional Neural Networks for Medical Image Classification [0.0]
ビジョントランスフォーマー (ViT) はコンピュータビジョンに革命をもたらしたが、医療画像における従来の畳み込みニューラルネットワーク (CNN) と比較すると、その効果は未発見のままである。
本研究は,胸部X線肺炎検出,脳腫瘍分類,皮膚癌メラノーマ検出の3つの重要な医用画像のCNNおよびViTアーキテクチャの比較分析を行った。
論文 参考訳(メタデータ) (2025-07-24T19:40:13Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [56.99710477905796]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Explainable Convolutional Neural Networks for Retinal Fundus Classification and Cutting-Edge Segmentation Models for Retinal Blood Vessels from Fundus Images [0.0]
眼底画像における網膜血管の検査による早期診断の重要領域に焦点を当てた研究。
基礎画像解析の研究は,8つの事前学習CNNモデルを用いたディープラーニングに基づく分類を進歩させる。
本研究では,Grad-CAM,Grad-CAM++,Score-CAM,Faster Score-CAM,Layer CAMなどの説明可能なAI技術を利用する。
論文 参考訳(メタデータ) (2024-05-12T17:21:57Z) - Streamlining Brain Tumor Classification with Custom Transfer Learning in
MRI Images [1.534667887016089]
脳腫瘍はますます広まり、脳内の異常な組織が制御不能に広がるのが特徴である。
本研究では,MRI画像からの脳腫瘍の分類を,カスタムトランスファー学習ネットワークを用いて効率的に行う方法を提案する。
論文 参考訳(メタデータ) (2023-10-19T19:13:04Z) - ACAT: Adversarial Counterfactual Attention for Classification and
Detection in Medical Imaging [41.202147558260336]
画像特徴を異なるスケールで変調するソフト空間アテンションマスクを得るために,サリエンシマップを用いたフレームワークを提案する。
ACATは、脳CTスキャンの病変の基準分類精度を71.39%から72.55%に引き上げ、肺CTスキャンの新型コロナウイルス関連所見を67.71%から70.84%に引き上げた。
論文 参考訳(メタデータ) (2023-03-27T17:43:57Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Y-Net for Chest X-Ray Preprocessing: Simultaneous Classification of
Geometry and Segmentation of Annotations [70.0118756144807]
この研究は、機械学習アルゴリズムに胸部X線入力のための一般的な前処理ステップを導入する。
VGG11エンコーダをベースとした改良Y-Netアーキテクチャを用いて,ラジオグラフィの幾何学的配向とセグメンテーションを同時に学習する。
対照画像の27.0%,34.9%に対し,95.8%,96.2%のアノテーションマスクが認められた。
論文 参考訳(メタデータ) (2020-05-08T02:16:17Z) - Automated Methods for Detection and Classification Pneumonia based on
X-Ray Images Using Deep Learning [0.0]
Resnet50, MobileNet_V2, Inception_Resnet_V2の微調整版では, トレーニングや検証精度の向上率(精度の96%以上)で高い良好な性能を示した。
CNN、Xception、VGG16、VGG19、Inception_V3、DenseNet201とは異なり、性能は低い(84%以上の精度)。
論文 参考訳(メタデータ) (2020-03-31T16:48:27Z) - Predictive modeling of brain tumor: A Deep learning approach [0.0]
本稿では3つの事前学習モデルを用いて脳MRIスキャンを2つのクラスに分類する畳み込みニューラルネットワーク(CNN)に基づく伝達学習手法を提案する。
実験の結果, Resnet-50モデルが最も精度が高く, 偽陰率は95%, ゼロであった。
論文 参考訳(メタデータ) (2019-11-06T09:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。