論文の概要: Advancing Multiple Instance Learning with Continual Learning for Whole Slide Imaging
- arxiv url: http://arxiv.org/abs/2505.10649v1
- Date: Thu, 15 May 2025 18:41:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:13.380113
- Title: Advancing Multiple Instance Learning with Continual Learning for Whole Slide Imaging
- Title(参考訳): 全スライド画像の連続学習による複数インスタンス学習の促進
- Authors: Xianrui Li, Yufei Cui, Jun Li, Antoni B. Chan,
- Abstract要約: MILモデルの注意層でCLを解析し,主にMILモデルの注意層に集中していることを確認した。
MILにおけるCL改善のための2つのコンポーネントを提案する: 意識的知識蒸留(AKD)と擬似Bagメモリプール(PMP)。
- 参考スコア(独自算出の注目度): 42.60974095443297
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in medical imaging and deep learning have propelled progress in whole slide image (WSI) analysis, with multiple instance learning (MIL) showing promise for efficient and accurate diagnostics. However, conventional MIL models often lack adaptability to evolving datasets, as they rely on static training that cannot incorporate new information without extensive retraining. Applying continual learning (CL) to MIL models is a possible solution, but often sees limited improvements. In this paper, we analyze CL in the context of attention MIL models and find that the model forgetting is mainly concentrated in the attention layers of the MIL model. Using the results of this analysis we propose two components for improving CL on MIL: Attention Knowledge Distillation (AKD) and the Pseudo-Bag Memory Pool (PMP). AKD mitigates catastrophic forgetting by focusing on retaining attention layer knowledge between learning sessions, while PMP reduces the memory footprint by selectively storing only the most informative patches, or ``pseudo-bags'' from WSIs. Experimental evaluations demonstrate that our method significantly improves both accuracy and memory efficiency on diverse WSI datasets, outperforming current state-of-the-art CL methods. This work provides a foundation for CL in large-scale, weakly annotated clinical datasets, paving the way for more adaptable and resilient diagnostic models.
- Abstract(参考訳): 医用画像と深層学習の進歩は、スライド画像全体(WSI)解析の進歩を加速させ、複数のインスタンス学習(MIL)は、効率的かつ正確な診断を約束している。
しかし、従来のMILモデルは、大規模なリトレーニングなしでは新しい情報を組み込むことができない静的トレーニングに依存するため、進化するデータセットへの適応性に欠けることが多い。
連続学習(CL)をMILモデルに適用することは可能な解決策であるが、しばしば改善が限られている。
本稿では,MILモデルの注意領域におけるCLの分析を行い,MILモデルの注意層にモデルを忘れることが主に集中していることを見出した。
そこで本研究では,MILにおけるCL改善のための2つのコンポーネントとして,AKD(Attention Knowledge Distillation)とPseudo-Bag Memory Pool(PMP)を提案する。
AKDは、学習セッション間の注意層知識の保持に集中することで破滅的な忘れを緩和し、PMPは、WSIsから最も情報性の高いパッチや‘pseudo-bags’だけを選択的に保存することで、メモリフットプリントを削減する。
実験により,本手法は様々なWSIデータセットの精度とメモリ効率を向上し,現状のCL法よりも優れていることが示された。
この研究は、大規模で弱い注釈付き臨床データセットにおけるCLの基礎を提供し、より適応性がありレジリエントな診断モデルへの道を開く。
関連論文リスト
- SimMIL: A Universal Weakly Supervised Pre-Training Framework for Multi-Instance Learning in Whole Slide Pathology Images [12.827931905880163]
本稿では,弱教師付きスキームを用いたMIL機能抽出器を提案する。
MILの効果的な特徴を学習するために、強いデータ拡張、非線形予測ヘッド、ロバストな損失関数など、いくつかの重要なコンポーネントを探索する。
我々は、一般的な大規模WSIデータセットで実験を行い、他の事前学習方式よりも優れた性能が得られることを発見した。
論文 参考訳(メタデータ) (2025-05-10T17:23:36Z) - Lifelong Whole Slide Image Analysis: Online Vision-Language Adaptation and Past-to-Present Gradient Distillation [1.1497371646067622]
全スライド画像(WSI)は、正確ながん診断と予後において重要な役割を担っている。
WSIのサイズがギガピクセルであることを考えると、ストレージ、処理、モデルトレーニングの点で困難を呈している。
本稿では,全スライディング画像(WSI)解析における生涯学習を向上する手法であるADaFGradを紹介する。
論文 参考訳(メタデータ) (2025-05-04T04:46:08Z) - Pathological Prior-Guided Multiple Instance Learning For Mitigating Catastrophic Forgetting in Breast Cancer Whole Slide Image Classification [50.899861205016265]
乳癌のWSI分類における破滅的忘れを緩和する新しい枠組みであるPaGMILを提案する。
私たちのフレームワークでは、共通のMILモデルアーキテクチャに2つの重要なコンポーネントを導入しています。
複数の乳がんデータセットを対象としたPaGMILの連続学習性能の評価を行った。
論文 参考訳(メタデータ) (2025-03-08T04:51:58Z) - An efficient framework based on large foundation model for cervical cytopathology whole slide image screening [13.744580492120749]
本稿では,教師なし・弱教師付き学習によるWSIレベルラベルのみを用いた頚部細胞病理学WSI分類のための効率的なフレームワークを提案する。
CSDおよびFNAC 2019データセットで実施された実験は、提案手法が様々なMIL手法の性能を高め、最先端(SOTA)性能を達成することを示した。
論文 参考訳(メタデータ) (2024-07-16T08:21:54Z) - AdvMIL: Adversarial Multiple Instance Learning for the Survival Analysis
on Whole-Slide Images [12.09957276418002]
本稿では,新しい逆多重インスタンス学習(AdvMIL)フレームワークを提案する。
このフレームワークは、WSI表現学習に非常に必要な多重インスタンス学習(MIL)を統合する。
実験の結果,AdvMILは比較的低コストで主要なWSIサバイバル分析手法に性能改善をもたらすだけでなく,半教師付き学習によるラベルなしデータの有効活用を可能にした。
論文 参考訳(メタデータ) (2022-12-13T12:02:05Z) - Competence-based Multimodal Curriculum Learning for Medical Report
Generation [98.10763792453925]
本稿では,コンピテンスベースのマルチモーダルカリキュラム学習フレームワーク(CMCL)を提案する。
具体的には、CMCLは放射線学者の学習過程をシミュレートし、段階的にモデルを最適化する。
パブリックIU-XrayとMIMIC-CXRデータセットの実験は、CMCLを既存のモデルに組み込んでパフォーマンスを向上させることができることを示している。
論文 参考訳(メタデータ) (2022-06-24T08:16:01Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。