論文の概要: MSRANetV2: An Explainable Deep Learning Architecture for Multi-class Classification of Colorectal Histopathological Images
- arxiv url: http://arxiv.org/abs/2510.24136v1
- Date: Tue, 28 Oct 2025 07:22:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.826614
- Title: MSRANetV2: An Explainable Deep Learning Architecture for Multi-class Classification of Colorectal Histopathological Images
- Title(参考訳): MSRANetV2: 大腸癌組織像のマルチクラス分類のための説明可能なディープラーニングアーキテクチャ
- Authors: Ovi Sarkar, Md Shafiuzzaman, Md. Faysal Ahamed, Golam Mahmud, Muhammad E. H. Chowdhury,
- Abstract要約: 大腸癌(CRC)は、世界中のがん関連死亡率の高い疾患である。
ディープラーニングアルゴリズムは、診断精度と効率を高めるための強力なアプローチとなっている。
大腸組織像の分類に最適化されたMSRANetV2という畳み込みニューラルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 3.4859776888706233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Colorectal cancer (CRC) is a leading worldwide cause of cancer-related mortality, and the role of prompt precise detection is of paramount interest in improving patient outcomes. Conventional diagnostic methods such as colonoscopy and histological examination routinely exhibit subjectivity, are extremely time-consuming, and are susceptible to variation. Through the development of digital pathology, deep learning algorithms have become a powerful approach in enhancing diagnostic precision and efficiency. In our work, we proposed a convolutional neural network architecture named MSRANetV2, specially optimized for the classification of colorectal tissue images. The model employs a ResNet50V2 backbone, extended with residual attention mechanisms and squeeze-and-excitation (SE) blocks, to extract deep semantic and fine-grained spatial features. With channel alignment and upsampling operations, MSRANetV2 effectively fuses multi-scale representations, thereby enhancing the robustness of the classification. We evaluated our model on a five-fold stratified cross-validation strategy on two publicly available datasets: CRC-VAL-HE-7K and NCT-CRC-HE-100K. The proposed model achieved remarkable average Precision, recall, F1-score, AUC, and test accuracy were 0.9884 plus-minus 0.0151, 0.9900 plus-minus 0.0151, 0.9900 plus-minus 0.0145, 0.9999 plus-minus 0.00006, and 0.9905 plus-minus 0.0025 on the 7K dataset. On the 100K dataset, they were 0.9904 plus-minus 0.0091, 0.9900 plus-minus 0.0071, 0.9900 plus-minus 0.0071, 0.9997 plus-minus 0.00016, and 0.9902 plus-minus 0.0006. Additionally, Grad-CAM visualizations were incorporated to enhance model interpretability by highlighting tissue areas that are medically relevant. These findings validate that MSRANetV2 is a reliable, interpretable, and high-performing architectural model for classifying CRC tissues.
- Abstract(参考訳): 大腸癌(CRC)は、がん関連死亡の世界的な主要な原因であり、迅速な正確な検出は、患者の予後を改善する上で最も重要な役割である。
大腸内視鏡検査や組織検査などの従来の診断方法では、主観性は日常的に示され、非常に時間がかかり、変化に影響を受けやすい。
デジタル病理学の発展により、深層学習アルゴリズムは診断精度と効率を高めるための強力なアプローチとなっている。
本研究では,大腸組織像の分類に最適化されたMSRANetV2という畳み込みニューラルネットワークアーキテクチャを提案する。
このモデルはResNet50V2バックボーンを使用しており、細かな空間的特徴を抽出するために、残留注意機構とSEブロックが拡張されている。
チャネルアライメントとアップサンプリング操作により、MSRANetV2はマルチスケール表現を効果的に融合し、分類の堅牢性を高める。
我々は, CRC-VAL-HE-7K と NCT-CRC-HE-100K の2つの公開データセットに対して, 5 倍の階層化クロスバリデーション戦略でモデルを評価した。
提案したモデルでは、精度、リコール、F1スコア、AUC、試験精度は0.9884プラスマイナス0.0151、0.9900プラスマイナス0.0151、0.9900プラスマイナス0.0145、0.9999プラスマイナス000006、0.9905プラスマイナス00025である。
100Kデータセットでは、0.9904+minus 0.0091、0.9900+minus 0.0071、0.9900+minus 0.0071、0.9997+minus 0.00016、0.9902+minus 0.0006であった。
さらに,Grad-CAMの可視化は,医学的に関係のある組織領域を強調することにより,モデル解釈可能性を高めるために組み込まれた。
これらの結果は,MSRANetV2がCRC組織を分類するための信頼性,解釈可能,高い性能のアーキテクチャモデルであることが確認された。
関連論文リスト
- Bridging Accuracy and Interpretability: Deep Learning with XAI for Breast Cancer Detection [0.0]
乳腺腫瘤のFNA(Digitalized Fine needle Aspirate)画像から抽出した定量的特徴を用いて,乳がん早期発見のための解釈可能なディープラーニングフレームワークを提案する。
私たちのディープニューラルネットワークは、ReLUアクティベーション、Adam視覚化、バイナリクロスエントロピー損失を使用して、最先端の分類性能を提供します。
論文 参考訳(メタデータ) (2025-10-18T07:47:26Z) - Skin Cancer Classification: Hybrid CNN-Transformer Models with KAN-Based Fusion [0.0]
Convolutional Kolmogorov-Arnold Network (CKAN) を用いた逐次および並列ハイブリッドCNN-Transformerモデルについて検討する。
そこでCNNは局所的な空間的特徴を抽出し、トランスフォーマーはグローバルな依存関係をモデル化し、CKANは表現学習を改善するために非線形な特徴融合を促進する。
HAM10000データセットで92.81%の精度と92.47%のF1スコア、PAD-UFESデータセットで97.83%のF1スコア、91.79%のF1スコア、91.17%のF1スコアを示す。
論文 参考訳(メタデータ) (2025-08-17T19:57:34Z) - CIMIL-CRC: a clinically-informed multiple instance learning framework for patient-level colorectal cancer molecular subtypes classification from H\&E stained images [42.771819949806655]
CIMIL-CRCは、事前学習した特徴抽出モデルと主成分分析(PCA)を効率よく組み合わせ、全てのパッチから情報を集約することで、MSI/MSS MIL問題を解決するフレームワークである。
我々は,TCGA-CRC-DXコホートを用いたモデル開発のための5倍のクロスバリデーション実験装置を用いて,曲線下平均面積(AUC)を用いてCIMIL-CRC法の評価を行った。
論文 参考訳(メタデータ) (2024-01-29T12:56:11Z) - Using Multiple Dermoscopic Photographs of One Lesion Improves Melanoma
Classification via Deep Learning: A Prognostic Diagnostic Accuracy Study [0.0]
本研究はCNNをベースとしたメラノーマ分類器に対する単一病変の複数の実世界の皮膚内視鏡像の影響について検討した。
複数の実世界の画像を使用することは、CNNベースのメラノーマ分類器の性能に肯定的な影響を及ぼすための安価な方法である。
論文 参考訳(メタデータ) (2023-06-05T11:55:57Z) - Vision Transformer for Efficient Chest X-ray and Gastrointestinal Image
Classification [2.3293678240472517]
本研究では,多種多様なCNNとトランスフォーマーを用いたデータ拡張手法を提案する。
異なるモダリティから3つの医用画像データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-04-23T04:07:03Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Deep-Learning Tool for Early Identifying Non-Traumatic Intracranial
Hemorrhage Etiology based on CT Scan [40.51754649947294]
深層学習モデルは、2011年1月から2018年4月までに収集された非外傷性ICHを用いた1868個のNCCTスキャンを用いて開発された。
診断成績は臨床医の成績と比較した。
臨床医は, システム拡張による特定の出血エチオロジーの感度, 特異性, 精度を著しく改善した。
論文 参考訳(メタデータ) (2023-02-02T08:45:17Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Efficient and Visualizable Convolutional Neural Networks for COVID-19
Classification Using Chest CT [0.0]
新型コロナウイルスは2020年12月4日現在、世界中で6500万人以上が感染している。
ディープラーニングは有望な診断技術として登場した。
本稿では,40種類の畳み込みニューラルネットワークアーキテクチャを新型コロナウイルスの診断のために評価・比較する。
論文 参考訳(メタデータ) (2020-12-22T07:09:48Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。