論文の概要: Explainable Knowledge Distillation for Efficient Medical Image Classification
- arxiv url: http://arxiv.org/abs/2508.15251v1
- Date: Thu, 21 Aug 2025 05:22:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.193396
- Title: Explainable Knowledge Distillation for Efficient Medical Image Classification
- Title(参考訳): 医用画像の効率的な分類のための説明可能な知識蒸留法
- Authors: Aqib Nazir Mir, Danish Raza Rizvi,
- Abstract要約: 本研究は、CXR画像を用いて、新型コロナウイルスの知識蒸留の枠組みと肺がん分類について包括的に検討する。
我々は、VGG19や軽量ビジョントランスフォーマーなどの高容量教師モデルを用いて、OFA-595スーパーネットから派生したコンパクトでハードウェア対応の学生モデルのトレーニングを指導する。
われわれのモデルは、COVID-QU-ExとLCS25000という2つのベンチマークデータセットで検証され、COVID-19、健康、非肺炎、肺、大腸癌を含む複数のクラスをカバーする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study comprehensively explores knowledge distillation frameworks for COVID-19 and lung cancer classification using chest X-ray (CXR) images. We employ high-capacity teacher models, including VGG19 and lightweight Vision Transformers (Visformer-S and AutoFormer-V2-T), to guide the training of a compact, hardware-aware student model derived from the OFA-595 supernet. Our approach leverages hybrid supervision, combining ground-truth labels with teacher models' soft targets to balance accuracy and computational efficiency. We validate our models on two benchmark datasets: COVID-QU-Ex and LCS25000, covering multiple classes, including COVID-19, healthy, non-COVID pneumonia, lung, and colon cancer. To interpret the spatial focus of the models, we employ Score-CAM-based visualizations, which provide insight into the reasoning process of both teacher and student networks. The results demonstrate that the distilled student model maintains high classification performance with significantly reduced parameters and inference time, making it an optimal choice in resource-constrained clinical environments. Our work underscores the importance of combining model efficiency with explainability for practical, trustworthy medical AI solutions.
- Abstract(参考訳): 本研究は、CXR画像を用いて、新型コロナウイルスの知識蒸留の枠組みと肺がん分類について包括的に検討する。
我々は、VGG19や軽量ビジョントランスフォーマー(Visformer-SとAutoFormer-V2-T)などの高容量の教師モデルを用いて、OFA-595スーパーネットから派生したコンパクトでハードウェア対応の学生モデルのトレーニングを指導する。
提案手法では,教師モデルのソフトターゲットと接地木ラベルを組み合わせることで,精度と計算効率のバランスをとる。
われわれのモデルは、COVID-QU-ExとLCS25000という2つのベンチマークデータセットで検証され、COVID-19、健康、非肺炎、肺、大腸癌を含む複数のクラスをカバーする。
モデルの空間的焦点を解釈するために,Score-CAMに基づく可視化を用い,教師ネットワークと学生ネットワークの両方の推論過程について考察する。
その結果, 蒸留した学生モデルは, パラメータと推論時間を大幅に削減し, 高い分類性能を維持しており, 資源制約のある臨床環境において最適な選択であることがわかった。
我々の研究は、実用的で信頼できる医療AIソリューションのためのモデル効率と説明可能性を組み合わせることの重要性を強調している。
関連論文リスト
- A Hybrid Deep Learning CNN Model for Enhanced COVID-19 Detection from Computed Tomography (CT) Scan Images [0.0]
新型コロナウイルスの早期検出は、効果的な治療と感染拡大の制御に不可欠である。
本研究では,CTスキャン画像から新型コロナウイルスを検出するためのハイブリッドディープラーニングモデルを提案する。
提案モデルでは,精度98.93%の精度を実現し,精度,リコール,F1スコア,ROC曲線性能を比較検討した。
論文 参考訳(メタデータ) (2025-01-28T18:59:21Z) - Active Data Curation Effectively Distills Large-Scale Multimodal Models [66.23057263509027]
知識蒸留(KD)は、大規模モデルをより小さなものに圧縮するデファクトスタンダードである。
本研究では, 対照的なマルチモーダル事前学習のための効果的な蒸留法として, 能動的データキュレーションの代替として, 簡単なアプローチを探求する。
我々の単純なオンラインバッチ選択方法であるACIDは、さまざまなモデル、データ、計算構成において、強力なKDベースラインよりも優れています。
論文 参考訳(メタデータ) (2024-11-27T18:50:15Z) - EFCM: Efficient Fine-tuning on Compressed Models for deployment of large models in medical image analysis [17.876140405367764]
本研究では,非監督的特徴蒸留と微調整の2段階からなる圧縮モデル(EFCM)フレームワークの効率的な微調整について述べる。
実験は、網膜用RETFound、胸部X線用MRM、病理組織学用BROWの3つの大きな医療モデルに関連する11の下流データセットで実施された。
論文 参考訳(メタデータ) (2024-09-18T09:08:16Z) - Customizing General-Purpose Foundation Models for Medical Report
Generation [64.31265734687182]
ラベル付き医用画像-レポートペアの不足は、ディープニューラルネットワークや大規模ニューラルネットワークの開発において大きな課題となっている。
本稿では,コンピュータビジョンと自然言語処理の基盤モデル (FM) として,市販の汎用大規模事前学習モデルのカスタマイズを提案する。
論文 参考訳(メタデータ) (2023-06-09T03:02:36Z) - Knowledge Distillation for Adaptive MRI Prostate Segmentation Based on
Limit-Trained Multi-Teacher Models [4.711401719735324]
圧縮法と加速技術として知識蒸留(KD)が提案されている。
KDは、負担の多いモデルから軽量モデルに知識を移行できる効率的な学習戦略である。
本研究では,KDに基づく前立腺MRIセグメンテーションの深部モデルを構築し,Kellback-Leiblerの発散,Lovasz,Diceの損失と特徴量に基づく蒸留を組み合わせる。
論文 参考訳(メタデータ) (2023-03-16T17:15:08Z) - SSD-KD: A Self-supervised Diverse Knowledge Distillation Method for
Lightweight Skin Lesion Classification Using Dermoscopic Images [62.60956024215873]
皮膚がんは最も一般的な悪性腫瘍の1つであり、人口に影響を与え、世界中で経済的な重荷を負っている。
皮膚がん検出のほとんどの研究は、ポータブルデバイス上での計算資源の制限を考慮せずに、高い予測精度を追求している。
本研究は,皮膚疾患分類のための汎用的なKDフレームワークに多様な知識を統一する,SSD-KDと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-22T06:54:29Z) - Performance or Trust? Why Not Both. Deep AUC Maximization with
Self-Supervised Learning for COVID-19 Chest X-ray Classifications [72.52228843498193]
ディープラーニングモデルのトレーニングでは、パフォーマンスと信頼の間に妥協をしなければなりません。
本研究は、新型コロナウイルス患者のコンピュータ支援スクリーニングのための自己教師型学習と新しい代理損失を統合したものである。
論文 参考訳(メタデータ) (2021-12-14T21:16:52Z) - Categorical Relation-Preserving Contrastive Knowledge Distillation for
Medical Image Classification [75.27973258196934]
そこで本研究では,一般的な平均教師モデルであるCRCKD(Categorical Relation-Reserving Contrastive Knowledge Distillation)アルゴリズムを提案する。
この正規化により、学生モデルの特徴分布はクラス内類似度が高く、クラス間分散を示す。
CCDとCRPの貢献により、我々のCRCKDアルゴリズムはより包括的に関係知識を蒸留することができる。
論文 参考訳(メタデータ) (2021-07-07T13:56:38Z) - Classification of COVID-19 X-ray Images Using a Combination of Deep and
Handcrafted Features [0.0]
私たちは、X線胸部スキャンから抽出された深い畳み込みと手作業の機能を組み合わせて、健康で一般的な肺炎、およびCOVID-19患者を識別します。
SVM と CNN のハンドクラフト特徴に対して, 0.963 と 0.983 との組み合わせによる分類作業において 0.988 の精度を実現した。
論文 参考訳(メタデータ) (2021-01-19T21:09:46Z) - Exploration of Interpretability Techniques for Deep COVID-19
Classification using Chest X-ray Images [10.01138352319106]
5種類のディープラーニングモデル(ResNet18、ResNet34、InceptionV3、InceptionResNetV2、DenseNet161)とそれらのEnsembleは、Chest X-Ray画像を用いて、新型コロナウイルス、肺炎、健康な被験者を分類するために使用されている。
新型コロナウイルスの分類における平均的なMicro-F1スコアは0.66から0.875の範囲で、ネットワークモデルのアンサンブルは0.89である。
論文 参考訳(メタデータ) (2020-06-03T22:55:53Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。