論文の概要: Fundus-Enhanced Disease-Aware Distillation Model for Retinal Disease
Classification from OCT Images
- arxiv url: http://arxiv.org/abs/2308.00291v1
- Date: Tue, 1 Aug 2023 05:13:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 15:20:42.653901
- Title: Fundus-Enhanced Disease-Aware Distillation Model for Retinal Disease
Classification from OCT Images
- Title(参考訳): oct画像による網膜疾患分類のための眼底疾患対応蒸留モデル
- Authors: Lehan Wang, Weihang Dai, Mei Jin, Chubin Ou, and Xiaomeng Li
- Abstract要約: OCT画像から網膜疾患分類のための基礎疾患対応蒸留モデルを提案する。
本フレームワークは, 未完成の眼底画像を用いて, OCTモデルを訓練中に強化する。
提案手法は網膜疾患分類のための単一モーダル,多モーダルおよび最先端蒸留法より優れている。
- 参考スコア(独自算出の注目度): 6.72159216082989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical Coherence Tomography (OCT) is a novel and effective screening tool
for ophthalmic examination. Since collecting OCT images is relatively more
expensive than fundus photographs, existing methods use multi-modal learning to
complement limited OCT data with additional context from fundus images.
However, the multi-modal framework requires eye-paired datasets of both
modalities, which is impractical for clinical use. To address this problem, we
propose a novel fundus-enhanced disease-aware distillation model (FDDM), for
retinal disease classification from OCT images. Our framework enhances the OCT
model during training by utilizing unpaired fundus images and does not require
the use of fundus images during testing, which greatly improves the
practicality and efficiency of our method for clinical use. Specifically, we
propose a novel class prototype matching to distill disease-related information
from the fundus model to the OCT model and a novel class similarity alignment
to enforce consistency between disease distribution of both modalities.
Experimental results show that our proposed approach outperforms single-modal,
multi-modal, and state-of-the-art distillation methods for retinal disease
classification. Code is available at https://github.com/xmed-lab/FDDM.
- Abstract(参考訳): 光コヒーレンス断層撮影(oct)は眼科検査の新規かつ効果的なスクリーニングツールである。
OCT画像の収集は、眼底画像よりも比較的高価であるため、既存の手法では、眼底画像から追加の文脈で限られたOCTデータを補完するためにマルチモーダル学習を使用している。
しかし、マルチモーダルフレームワークには両方のモーダルのアイペアデータセットが必要であり、臨床での使用には実用的ではない。
この問題に対処するために, OCT画像から網膜疾患を分類する新しい基盤型疾患認識蒸留モデル(FDDM)を提案する。
本研究の枠組みは,非ペア型眼底画像を利用してトレーニング中のoctモデルを強化し,検査時の眼底画像の使用を必要とせず,その実用性と臨床利用効率を大幅に改善する。
具体的には, 基礎モデルからoctモデルへの蒸留病関連情報に適合する新しいクラスプロトタイプと, 両形態の疾患分布の一貫性を強制する新しいクラス類似性アライメントを提案する。
実験結果から,本手法は網膜疾患分類における単一モーダル,多モーダルおよび最先端蒸留法よりも優れていた。
コードはhttps://github.com/xmed-lab/FDDMで入手できる。
関連論文リスト
- Enhancing Retinal Disease Classification from OCTA Images via Active Learning Techniques [0.8035416719640156]
高齢のアメリカ人では眼疾患が一般的であり、視力や視力の低下につながることがある。
光コヒーレンス・トモグラフィ・アンギオグラフィー(OCTA)により、臨床医が網膜血管の高品質な画像を取得することができる画像技術の最近の進歩
OCTAは、一般的なOCT画像から得られる構造情報と比較して、詳細な血管画像を提供する。
論文 参考訳(メタデータ) (2024-07-21T23:24:49Z) - CC-DCNet: Dynamic Convolutional Neural Network with Contrastive Constraints for Identifying Lung Cancer Subtypes on Multi-modality Images [13.655407979403945]
肺がんサブタイプを多次元・多モード画像で正確に分類するための新しい深層学習ネットワークを提案する。
提案モデルの強みは, 対のCT-病理画像セットと独立のCT画像セットの両方を動的に処理できることにある。
また,ネットワーク学習を通じてモダリティ関係を定量的にマッピングするコントラスト制約モジュールも開発した。
論文 参考訳(メタデータ) (2024-07-18T01:42:00Z) - Generating Realistic Counterfactuals for Retinal Fundus and OCT Images
using Diffusion Models [36.81751569090276]
否定的推論は、意思決定の説明や代替案の定量化のために臨床現場でしばしば用いられる。
ここでは,網膜疾患分類タスクを訓練した逆向き頑健な分類器と併用した拡散モデルを用いることで,極めて現実的な対物生成が可能であることを実証する。
ユーザスタディにおいて、ドメインの専門家は、我々の手法を用いて生成された偽物は、以前の方法から生成された偽物よりもはるかに現実的であり、実際の画像と区別できないものさえ見出した。
論文 参考訳(メタデータ) (2023-11-20T09:28:04Z) - Diffusion Models for Counterfactual Generation and Anomaly Detection in
Brain Images [59.85702949046042]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
本手法が正常なサンプルに適用された場合,入力画像は大幅な修正を伴わずに再構成されることを確認した。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Bridging Synthetic and Real Images: a Transferable and Multiple
Consistency aided Fundus Image Enhancement Framework [61.74188977009786]
画像強調とドメイン適応を同時に行うために,エンドツーエンドの教師支援フレームワークを提案する。
また,教師ネットワークと学生ネットワークのバックボーンとして,マルチステージ型マルチアテンション・ガイド・エンハンスメント・ネットワーク(MAGE-Net)を提案する。
論文 参考訳(メタデータ) (2023-02-23T06:16:15Z) - COROLLA: An Efficient Multi-Modality Fusion Framework with Supervised
Contrastive Learning for Glaucoma Grading [1.2250035750661867]
緑内障の診断に有効な多モード教師付きコントラスト学習フレームワークであるCOROLLAを提案する。
教師付きコントラスト学習を用いて、より良い収束性でモデルの識別能力を高めます。
GAMMAデータセットでは,我々のCOROLLAフレームワークは最先端の手法と比較して圧倒的な緑内障グレーディング性能を達成している。
論文 参考訳(メタデータ) (2022-01-11T06:00:51Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Categorical Relation-Preserving Contrastive Knowledge Distillation for
Medical Image Classification [75.27973258196934]
そこで本研究では,一般的な平均教師モデルであるCRCKD(Categorical Relation-Reserving Contrastive Knowledge Distillation)アルゴリズムを提案する。
この正規化により、学生モデルの特徴分布はクラス内類似度が高く、クラス間分散を示す。
CCDとCRPの貢献により、我々のCRCKDアルゴリズムはより包括的に関係知識を蒸留することができる。
論文 参考訳(メタデータ) (2021-07-07T13:56:38Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Learning Two-Stream CNN for Multi-Modal Age-related Macular Degeneration
Categorization [6.023239837661721]
加齢関連黄斑変性症(AMD)は50歳以上では一般的な黄斑疾患である。
これまでの研究は、主にシングルモーダル入力によるAMD分類に焦点を当てていた。
対照的に,多モード入力によるAMD分類は臨床的に有意だがほとんど探索されていない方向である。
論文 参考訳(メタデータ) (2020-12-03T12:50:36Z) - Modeling and Enhancing Low-quality Retinal Fundus Images [167.02325845822276]
低画質の眼底画像は臨床観察における不確実性を高め、誤診のリスクを引き起こす。
本稿では,グローバルな劣化要因を抑えるために,臨床指向の基盤拡張ネットワーク(cofe-Net)を提案する。
合成画像と実画像の両方の実験により、我々のアルゴリズムは網膜の細部を失うことなく、低品質の眼底画像を効果的に補正することを示した。
論文 参考訳(メタデータ) (2020-05-12T08:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。