論文の概要: SimMIL: A Universal Weakly Supervised Pre-Training Framework for Multi-Instance Learning in Whole Slide Pathology Images
- arxiv url: http://arxiv.org/abs/2505.06710v1
- Date: Sat, 10 May 2025 17:23:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.005295
- Title: SimMIL: A Universal Weakly Supervised Pre-Training Framework for Multi-Instance Learning in Whole Slide Pathology Images
- Title(参考訳): SimMIL:全スライディング画像におけるマルチインスタンス学習のためのユニバーサル弱修正事前学習フレームワーク
- Authors: Yicheng Song, Tiancheng Lin, Die Peng, Su Yang, Yi Xu,
- Abstract要約: 本稿では,弱教師付きスキームを用いたMIL機能抽出器を提案する。
MILの効果的な特徴を学習するために、強いデータ拡張、非線形予測ヘッド、ロバストな損失関数など、いくつかの重要なコンポーネントを探索する。
我々は、一般的な大規模WSIデータセットで実験を行い、他の事前学習方式よりも優れた性能が得られることを発見した。
- 参考スコア(独自算出の注目度): 12.827931905880163
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Various multi-instance learning (MIL) based approaches have been developed and successfully applied to whole-slide pathological images (WSI). Existing MIL methods emphasize the importance of feature aggregators, but largely neglect the instance-level representation learning. They assume that the availability of a pre-trained feature extractor can be directly utilized or fine-tuned, which is not always the case. This paper proposes to pre-train feature extractor for MIL via a weakly-supervised scheme, i.e., propagating the weak bag-level labels to the corresponding instances for supervised learning. To learn effective features for MIL, we further delve into several key components, including strong data augmentation, a non-linear prediction head and the robust loss function. We conduct experiments on common large-scale WSI datasets and find it achieves better performance than other pre-training schemes (e.g., ImageNet pre-training and self-supervised learning) in different downstream tasks. We further show the compatibility and scalability of the proposed scheme by deploying it in fine-tuning the pathological-specific models and pre-training on merged multiple datasets. To our knowledge, this is the first work focusing on the representation learning for MIL.
- Abstract(参考訳): 様々なマルチインスタンス・ラーニング (MIL) ベースのアプローチが開発され, 全身スライディング画像 (WSI) に適用されている。
既存のMILメソッドは機能集約の重要性を強調しているが、インスタンスレベルの表現学習は無視されている。
彼らは、事前訓練された特徴抽出器の利用可能性を直接利用または微調整できると仮定するが、必ずしもそうではない。
本稿では,弱教師付きスキーム,すなわち弱バッグレベルラベルを教師付き学習用インスタンスに伝播させることにより,MILのための事前訓練機能抽出器を提案する。
MILの効果的な特徴を学習するために、より強力なデータ拡張、非線形予測ヘッド、ロバストな損失関数など、いくつかの重要なコンポーネントを探索する。
我々は、一般的な大規模WSIデータセットの実験を行い、異なる下流タスクにおいて、他の事前学習スキーム(例えば、ImageNet事前学習と自己教師型学習)よりも優れたパフォーマンスを達成することを発見した。
さらに,本提案手法の適合性や拡張性について,病理特化モデルの微調整や,統合された複数のデータセットの事前学習に応用して述べる。
我々の知る限り、MILの表現学習に焦点を当てた最初の研究である。
関連論文リスト
- Rethinking Pre-Trained Feature Extractor Selection in Multiple Instance Learning for Whole Slide Image Classification [2.375943263571389]
複数インスタンス学習(MIL)は、パッチレベルのアノテーションを必要とせずに、ギガピクセル全体のスライド画像(WSI)分類に好まれる方法となっている。
本研究では,3次元のMIL特徴抽出器(事前学習データセット,バックボーンモデル,事前学習手法)を体系的に評価する。
論文 参考訳(メタデータ) (2024-08-02T10:34:23Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Multi-Level Contrastive Learning for Dense Prediction Task [59.591755258395594]
本稿では,高密度予測タスクのための領域レベルの特徴表現を効率よく学習するための,MCL(Multi-Level Contrastive Learning for Dense Prediction Task)を提案する。
本手法は, 局所化, スケールの整合性, 認識の3つの要因に動機付けられている。
提案手法は,様々なデータセットにおける最近の最先端の手法よりも有意なマージンを有する。
論文 参考訳(メタデータ) (2023-04-04T17:59:04Z) - Towards All-in-one Pre-training via Maximizing Multi-modal Mutual
Information [77.80071279597665]
マルチモーダル相互情報事前学習(M3I事前学習)を最大化するオールインワン単段階事前学習手法を提案する。
提案手法は,ImageNet分類,オブジェクト検出,LVIS長鎖オブジェクト検出,ADE20kセマンティックセマンティックセマンティックセマンティクスなど,様々なビジョンベンチマークにおける事前学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-11-17T18:59:49Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。