論文の概要: KD-OCT: Efficient Knowledge Distillation for Clinical-Grade Retinal OCT Classification
- arxiv url: http://arxiv.org/abs/2512.09069v1
- Date: Tue, 09 Dec 2025 19:34:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.298064
- Title: KD-OCT: Efficient Knowledge Distillation for Clinical-Grade Retinal OCT Classification
- Title(参考訳): KD-OCT : クリニカルグレード網膜OCT分類における効率的な知識蒸留法
- Authors: Erfan Nourbakhsh, Nasrin Sanjari, Ali Nourbakhsh,
- Abstract要約: 加齢に伴う黄斑変性 (AMD) と脈絡膜新生血管形成 (CNV) の関連が世界中の視力喪失の原因となっている。
ConvNeXtV2-Largeのような最先端のディープラーニングモデルを臨床環境で展開することは、彼らの計算要求を妨げている。
リアルタイムデプロイメントを実現しつつ、高い診断性能を維持する効率的なモデルを開発することが望ましい。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Age-related macular degeneration (AMD) and choroidal neovascularization (CNV)-related conditions are leading causes of vision loss worldwide, with optical coherence tomography (OCT) serving as a cornerstone for early detection and management. However, deploying state-of-the-art deep learning models like ConvNeXtV2-Large in clinical settings is hindered by their computational demands. Therefore, it is desirable to develop efficient models that maintain high diagnostic performance while enabling real-time deployment. In this study, a novel knowledge distillation framework, termed KD-OCT, is proposed to compress a high-performance ConvNeXtV2-Large teacher model, enhanced with advanced augmentations, stochastic weight averaging, and focal loss, into a lightweight EfficientNet-B2 student for classifying normal, drusen, and CNV cases. KD-OCT employs real-time distillation with a combined loss balancing soft teacher knowledge transfer and hard ground-truth supervision. The effectiveness of the proposed method is evaluated on the Noor Eye Hospital (NEH) dataset using patient-level cross-validation. Experimental results demonstrate that KD-OCT outperforms comparable multi-scale or feature-fusion OCT classifiers in efficiency- accuracy balance, achieving near-teacher performance with substantial reductions in model size and inference time. Despite the compression, the student model exceeds most existing frameworks, facilitating edge deployment for AMD screening. Code is available at https://github.com/erfan-nourbakhsh/KD- OCT.
- Abstract(参考訳): 加齢に伴う黄斑変性 (AMD) と脈絡膜新生血管形成 (CNV) に関連する病態は, 早期発見と管理の基盤となる光コヒーレンストモグラフィー (OCT) によって世界中の視力喪失の原因となっている。
しかし、臨床環境でのConvNeXtV2-Largeのような最先端のディープラーニングモデルは、その計算要求によって妨げられる。
したがって,リアルタイムなデプロイを実現しつつ,高い診断性能を維持する効率的なモデルを開発することが望ましい。
本研究では,KD-OCTと呼ばれる新しい知識蒸留フレームワークを提案し,高度な拡張,確率的平均化,焦点損失により強化された高性能ConvNeXtV2ラージ教師モデルを,正常,ドルーゼン,CNV症例を分類するための軽量なNet-B2学生に圧縮する。
KD-OCTは、ソフト・教師の知識伝達とハード・グラウンド・トラストの監督を兼ね備えたリアルタイム蒸留を採用している。
本手法の有効性は, 患者レベルのクロスバリデーションを用いて, Noor Eye Hospital (NEH) データセットを用いて評価した。
実験結果から,KD-OCTは効率-精度バランスにおいて,マルチスケールや機能融合のOCT分類器よりも優れており,モデルサイズと推定時間を大幅に削減できることがわかった。
圧縮にもかかわらず、学生モデルは既存のほとんどのフレームワークを超え、AMDスクリーニングのエッジデプロイを容易にする。
コードはhttps://github.com/erfan-nourbakhsh/KD- OCTで公開されている。
関連論文リスト
- Enhanced SegNet with Integrated Grad-CAM for Interpretable Retinal Layer Segmentation in OCT Images [0.0]
そこで本研究では,SegNetによる網膜層分割の自動化と解釈のためのディープラーニングフレームワークを提案する。
改良されたプール戦略を含むアーキテクチャ上の革新は、ノイズの多いOCT画像からの特徴抽出を強化する。
Grad-CAMの可視化では、解剖学的に関連のある領域が強調され、セグメンテーションと臨床バイオマーカーが一致した。
論文 参考訳(メタデータ) (2025-09-09T14:31:51Z) - Explainable Knowledge Distillation for Efficient Medical Image Classification [0.0]
本研究は、CXR画像を用いて、新型コロナウイルスの知識蒸留の枠組みと肺がん分類について包括的に検討する。
我々は、VGG19や軽量ビジョントランスフォーマーなどの高容量教師モデルを用いて、OFA-595スーパーネットから派生したコンパクトでハードウェア対応の学生モデルのトレーニングを指導する。
われわれのモデルは、COVID-QU-ExとLCS25000という2つのベンチマークデータセットで検証され、COVID-19、健康、非肺炎、肺、大腸癌を含む複数のクラスをカバーする。
論文 参考訳(メタデータ) (2025-08-21T05:22:47Z) - REACT-KD: Region-Aware Cross-modal Topological Knowledge Distillation for Interpretable Medical Image Classification [2.384306241677947]
我々は,高忠実度マルチモーダルソースから軽量CTベースの学生モデルへ監督を伝達するフレームワークREACT-KDを提案する。
一方の枝は二重軌跡PET/CTで構造-機能関係を捉え,他方の枝は低用量CTを用いて線量認識する。
このフレームワークは内部のPET/CTコホートで平均93.5%のAUCを達成し、外部CT試験における線量低下のレベルによって76.6%から81.5%のAUCを維持した。
論文 参考訳(メタデータ) (2025-08-04T06:29:34Z) - EFCM: Efficient Fine-tuning on Compressed Models for deployment of large models in medical image analysis [17.876140405367764]
本研究では,非監督的特徴蒸留と微調整の2段階からなる圧縮モデル(EFCM)フレームワークの効率的な微調整について述べる。
実験は、網膜用RETFound、胸部X線用MRM、病理組織学用BROWの3つの大きな医療モデルに関連する11の下流データセットで実施された。
論文 参考訳(メタデータ) (2024-09-18T09:08:16Z) - Co-training and Co-distillation for Quality Improvement and Compression
of Language Models [88.94539115180919]
知識蒸留(KD)は、知識をより小さなモデルに伝達することで、高価な事前訓練言語モデル(PLM)を圧縮する。
ほとんどの小型モデルはオリジナルの大型モデルの性能を上回ることができず、推論速度を改善するために性能を犠牲にする結果となった。
本稿では,2つのモデルを協調学習することで,性能と推論速度を共に向上する新しいフレームワークであるCTCDを提案する。
論文 参考訳(メタデータ) (2023-11-06T03:29:00Z) - SSD-KD: A Self-supervised Diverse Knowledge Distillation Method for
Lightweight Skin Lesion Classification Using Dermoscopic Images [62.60956024215873]
皮膚がんは最も一般的な悪性腫瘍の1つであり、人口に影響を与え、世界中で経済的な重荷を負っている。
皮膚がん検出のほとんどの研究は、ポータブルデバイス上での計算資源の制限を考慮せずに、高い予測精度を追求している。
本研究は,皮膚疾患分類のための汎用的なKDフレームワークに多様な知識を統一する,SSD-KDと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-22T06:54:29Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Performance or Trust? Why Not Both. Deep AUC Maximization with
Self-Supervised Learning for COVID-19 Chest X-ray Classifications [72.52228843498193]
ディープラーニングモデルのトレーニングでは、パフォーマンスと信頼の間に妥協をしなければなりません。
本研究は、新型コロナウイルス患者のコンピュータ支援スクリーニングのための自己教師型学習と新しい代理損失を統合したものである。
論文 参考訳(メタデータ) (2021-12-14T21:16:52Z) - Categorical Relation-Preserving Contrastive Knowledge Distillation for
Medical Image Classification [75.27973258196934]
そこで本研究では,一般的な平均教師モデルであるCRCKD(Categorical Relation-Reserving Contrastive Knowledge Distillation)アルゴリズムを提案する。
この正規化により、学生モデルの特徴分布はクラス内類似度が高く、クラス間分散を示す。
CCDとCRPの貢献により、我々のCRCKDアルゴリズムはより包括的に関係知識を蒸留することができる。
論文 参考訳(メタデータ) (2021-07-07T13:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。