論文の概要: Explainable Knowledge Distillation for On-device Chest X-Ray
Classification
- arxiv url: http://arxiv.org/abs/2305.06244v1
- Date: Wed, 10 May 2023 15:25:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 12:24:09.305810
- Title: Explainable Knowledge Distillation for On-device Chest X-Ray
Classification
- Title(参考訳): オンデバイス胸部x線分類のための説明可能な知識蒸留
- Authors: Chakkrit Termritthikun, Ayaz Umer, Suwichaya Suwanwimolkul, Feng Xia,
Ivan Lee
- Abstract要約: 実時間多ラベルCXR画像分類のための,コンパクトな深層学習モデルを作成するための知識蒸留(KD)戦略を提案する。
3つのベンチマークCXRデータセットの結果から,我々のKD戦略は,コンパクトな学生モデルの性能向上を図っている。
- 参考スコア(独自算出の注目度): 7.319145625411966
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automated multi-label chest X-rays (CXR) image classification has achieved
substantial progress in clinical diagnosis via utilizing sophisticated deep
learning approaches. However, most deep models have high computational demands,
which makes them less feasible for compact devices with low computational
requirements. To overcome this problem, we propose a knowledge distillation
(KD) strategy to create the compact deep learning model for the real-time
multi-label CXR image classification. We study different alternatives of CNNs
and Transforms as the teacher to distill the knowledge to a smaller student.
Then, we employed explainable artificial intelligence (XAI) to provide the
visual explanation for the model decision improved by the KD. Our results on
three benchmark CXR datasets show that our KD strategy provides the improved
performance on the compact student model, thus being the feasible choice for
many limited hardware platforms. For instance, when using DenseNet161 as the
teacher network, EEEA-Net-C2 achieved an AUC of 83.7%, 87.1%, and 88.7% on the
ChestX-ray14, CheXpert, and PadChest datasets, respectively, with fewer
parameters of 4.7 million and computational cost of 0.3 billion FLOPS.
- Abstract(参考訳): マルチラベル胸部X線(CXR)画像の自動分類は,高度な深層学習手法を用いて臨床診断において大きな進歩を遂げた。
しかし、ほとんどの深層モデルには高い計算要求があるため、計算能力の低い小型デバイスでは実現不可能である。
本稿では,実時間多ラベルcxr画像分類のためのコンパクトなディープラーニングモデルを作成するための知識蒸留(kd)戦略を提案する。
我々はCNNとトランスフォーメーションの異なる代替手段を教師として研究し、その知識を小学生に抽出する。
次に,kdによって改善されたモデル決定に対する視覚的な説明を提供するために,説明可能な人工知能(xai)を用いた。
3つのベンチマークcxrデータセットの結果から,我々のkd戦略は,コンパクトな学生モデルにおけるパフォーマンスの向上を提供し,多くの限られたハードウェアプラットフォームで実現可能な選択肢であることが示された。
例えば、DenseNet161を教師ネットワークとして使用する場合、EEEA-Net-C2は、ChestX-ray14、CheXpert、PadChestデータセットでそれぞれ83.7%、87.1%、88.7%のAUCを達成した。
関連論文リスト
- Leveraging Knowledge Distillation for Lightweight Skin Cancer Classification: Balancing Accuracy and Computational Efficiency [0.0]
皮膚がんは公衆衛生にとって大きな関心事であり、報告されているがんの3分の1を占めている。
本稿では,軽量ながら高い性能の分類器を作成するための知識蒸留に基づく手法を提案する。
高精度でコンパクトなサイズを持つため、われわれのモデルは、特に資源制約のある環境では、正確な皮膚がん分類の候補となる可能性がある。
論文 参考訳(メタデータ) (2024-06-24T18:13:09Z) - One-for-All: Bridge the Gap Between Heterogeneous Architectures in
Knowledge Distillation [69.65734716679925]
知識蒸留は,教師が指導する学習手法を通じて,モデル性能を向上させる上で,極めて効果的な手法であることが証明されている。
既存の蒸留法のほとんどは、教師と生徒のモデルが同じモデルファミリーに属するという前提で設計されている。
我々は, ヘテロジニアスアーキテクチャ間の蒸留性能を大幅に向上させる, OFA-KDという, 単純で効果的な一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元
論文 参考訳(メタデータ) (2023-10-30T11:13:02Z) - Knowledge Distillation for Adaptive MRI Prostate Segmentation Based on
Limit-Trained Multi-Teacher Models [4.711401719735324]
圧縮法と加速技術として知識蒸留(KD)が提案されている。
KDは、負担の多いモデルから軽量モデルに知識を移行できる効率的な学習戦略である。
本研究では,KDに基づく前立腺MRIセグメンテーションの深部モデルを構築し,Kellback-Leiblerの発散,Lovasz,Diceの損失と特徴量に基づく蒸留を組み合わせる。
論文 参考訳(メタデータ) (2023-03-16T17:15:08Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Knowledge Distillation with Representative Teacher Keys Based on
Attention Mechanism for Image Classification Model Compression [1.503974529275767]
知識蒸留(KD)はモデルパラメータを減らすためのモデル圧縮の効果的な方法の1つとして認識されている。
注意機構にヒントを得て,代表教師キー(RTK)と呼ばれる新しいKD手法を提案する。
提案するRTKは,最先端の注意に基づくKD手法の分類精度を効果的に向上させることができる。
論文 参考訳(メタデータ) (2022-06-26T05:08:50Z) - SSD-KD: A Self-supervised Diverse Knowledge Distillation Method for
Lightweight Skin Lesion Classification Using Dermoscopic Images [62.60956024215873]
皮膚がんは最も一般的な悪性腫瘍の1つであり、人口に影響を与え、世界中で経済的な重荷を負っている。
皮膚がん検出のほとんどの研究は、ポータブルデバイス上での計算資源の制限を考慮せずに、高い予測精度を追求している。
本研究は,皮膚疾患分類のための汎用的なKDフレームワークに多様な知識を統一する,SSD-KDと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-22T06:54:29Z) - Image Embedding and Model Ensembling for Automated Chest X-Ray
Interpretation [0.0]
我々は、自動胸部X線診断モデルを開発するための機械学習アプローチをいくつか提示および研究する。
特に,chexpertデータセット上で複数の畳み込みニューラルネットワーク(cnn)をトレーニングした。
学習したCNNを用いてCXR画像の埋め込みを計算し、2組のツリーベース分類器を訓練した。
論文 参考訳(メタデータ) (2021-05-05T14:48:59Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Resolution-Based Distillation for Efficient Histology Image
Classification [29.603903713682275]
本論文では,ヒストロジー画像分類の計算効率向上のための深層学習に基づく新しい手法を提案する。
提案手法は,入力解像度を低減し,限定ラベルデータを用いて効果的にトレーニングできる画像に対して頑健である。
セリアック病(CD)と肺腺癌(LUAD)に関連する2つの組織学的画像データセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-01-11T20:00:35Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - A Systematic Approach to Featurization for Cancer Drug Sensitivity
Predictions with Deep Learning [49.86828302591469]
35,000以上のニューラルネットワークモデルをトレーニングし、一般的な成果化技術を駆使しています。
RNA-seqは128以上のサブセットであっても非常に冗長で情報的であることがわかった。
論文 参考訳(メタデータ) (2020-04-30T20:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。