論文の概要: PreMix: Addressing Label Scarcity in Whole Slide Image Classification with Pre-trained Multiple Instance Learning Aggregators
- arxiv url: http://arxiv.org/abs/2408.01162v2
- Date: Fri, 24 Jan 2025 04:42:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:54:46.005248
- Title: PreMix: Addressing Label Scarcity in Whole Slide Image Classification with Pre-trained Multiple Instance Learning Aggregators
- Title(参考訳): PreMix: 事前学習型複数インスタンス学習アグリゲータを用いた全スライド画像分類におけるラベルの空白化
- Authors: Bryan Wong, Mun Yong Yi,
- Abstract要約: マルチ・インスタンス・ラーニング(MIL)は、弱い教師付き全スライド画像(WSI)分類のための強力なフレームワークとして登場した。
本稿では,非コントラスト事前学習手法であるBarlow Twinsを利用した新しいフレームワークであるPreMixを提案する。
また,様々なWSIトレーニングデータセットとラベルサイズに対して,ベースラインHIPTよりも平均4.7%のF1改善を実現していることを示す。
- 参考スコア(独自算出の注目度): 2.6703221234079946
- License:
- Abstract: Multiple instance learning (MIL) has emerged as a powerful framework for weakly supervised whole slide image (WSI) classification, enabling slide-level predictions without requiring detailed patch-level annotations. However, a key limitation of MIL lies in the underexplored potential of pre-training the MIL aggregator. Most existing approaches train it from scratch, resulting in performance heavily dependent on the number of labeled WSIs, while overlooking the abundance of unlabeled WSIs available in real-world scenarios. To address this, we propose PreMix, a novel framework that leverages a non-contrastive pre-training method, Barlow Twins, augmented with the Slide Mixing approach to generate additional positive pairs and enhance feature learning, particularly under limited labeled WSI conditions. Fine-tuning with Mixup and Manifold Mixup further enhances robustness by effectively handling the diverse sizes of gigapixel WSIs. Experimental results demonstrate that integrating HIPT into PreMix achieves an average F1 improvement of 4.7% over the baseline HIPT across various WSI training datasets and label sizes. These findings underscore its potential to advance WSI classification with limited labeled data and its applicability to real-world histopathology practices. The code is available at https://anonymous.4open.science/r/PreMix
- Abstract(参考訳): 多重インスタンス学習 (MIL) は、詳細なパッチレベルのアノテーションを必要とせずに、スライドレベルの予測を可能にする、弱い教師付き全スライドイメージ(WSI)分類のための強力なフレームワークとして登場した。
しかし、MILの重要な制限は、MILアグリゲータを事前訓練する未発見のポテンシャルにある。
既存のほとんどのアプローチは、それをゼロからトレーニングし、その結果、実世界のシナリオで利用可能なラベルのないWSIの豊富さを見下ろしながら、ラベル付きWSIの数に大きく依存する。
そこで本研究では,非コントラスト事前学習手法であるBarlow Twinsを活用する新しいフレームワークPreMixを提案する。
Mixup と Manifold Mixup による微調整により、ギガピクセル WSI の様々なサイズを効果的に扱うことにより、ロバスト性はさらに向上する。
実験の結果, HIPT を PreMix に統合すると,WSI トレーニングデータセットやラベルサイズに対して, HIPT のベースラインよりも平均 F1 が4.7% 向上することがわかった。
これらの知見は, ラベル付きデータによるWSI分類の進展の可能性と, 実世界における病理組織学の実践への適用性を裏付けるものである。
コードはhttps://anonymous.4open.science/r/PreMixで公開されている。
関連論文リスト
- MergeUp-augmented Semi-Weakly Supervised Learning for WSI Classification [1.2387547097768696]
多重インスタンス学習(MIL)は、WSI分類のための弱い教師付き学習手法である。
機能拡張技術であるMergeUpを導入し、低優先度のバッグをマージしてカテゴリ間情報を強化する。
CAMELYON-16, BRACS, TCGA-LUNGデータセットによる実験結果から, 既存の最先端手法よりも本手法の方が優れていることが示された。
論文 参考訳(メタデータ) (2024-08-23T04:08:30Z) - Rethinking Pre-Trained Feature Extractor Selection in Multiple Instance Learning for Whole Slide Image Classification [2.6703221234079946]
複数インスタンス学習(MIL)は、パッチレベルのアノテーションを必要とせずに、ギガピクセル全体のスライド画像(WSI)分類に好まれる方法となっている。
本研究では,3次元のMIL特徴抽出器(事前学習データセット,バックボーンモデル,事前学習手法)を体系的に評価する。
論文 参考訳(メタデータ) (2024-08-02T10:34:23Z) - Task-customized Masked AutoEncoder via Mixture of Cluster-conditional
Experts [104.9871176044644]
Masked Autoencoder (MAE) は,モデル事前学習において有望な結果が得られる自己教師型学習手法である。
我々は、新しいMAEベースの事前学習パラダイム、Mixture of Cluster-conditional Experts (MoCE)を提案する。
MoCEは、クラスタ条件ゲートを使用して、各専門家にセマンティックなイメージのみをトレーニングする。
論文 参考訳(メタデータ) (2024-02-08T03:46:32Z) - Slot-Mixup with Subsampling: A Simple Regularization for WSI
Classification [13.286360560353936]
全スライド画像 (WSI) の分類は, がんの診断に関係のある症例は少ないが, 病理医には繰り返しズームイン, アウトが必要である。
パッチレベルのラベルがないため、多重インスタンス学習(MIL)はWSI分類器をトレーニングするための一般的なプラクティスである。
MIL for WSIsの課題の1つは、スライドレベルのラベルから来る弱い監督力であり、しばしば過度なオーバーフィッティングをもたらすことである。
我々のアプローチは、元のスライドの基盤となるセマンティクスを著しく変更することなく、WSIのパッチのサブセットをサンプリングすることで、トレーニングデータセットを強化します。
論文 参考訳(メタデータ) (2023-11-29T09:18:39Z) - Pseudo-Bag Mixup Augmentation for Multiple Instance Learning-Based Whole
Slide Image Classification [18.679580844360615]
我々は,MILモデルのトレーニングを改善するために,Pseudo-bag Mixup (PseMix)データ拡張方式を提案する。
提案手法は,一般画像のMixup戦略を疑似バグにより特別なWSIに一般化する。
効率的で分離された手法として設計されており、時間を要する操作やMILモデルの予測に依存しない。
論文 参考訳(メタデータ) (2023-06-28T13:02:30Z) - Self-Evolution Learning for Mixup: Enhance Data Augmentation on Few-Shot
Text Classification Tasks [75.42002070547267]
テキスト分類におけるデータ拡張のための自己進化学習(SE)に基づくミックスアップ手法を提案する。
モデル出力と原サンプルの1つのホットラベルを線形に補間して,新しい軟質なラベル混在を生成する,新しいインスタンス固有ラベル平滑化手法を提案する。
論文 参考訳(メタデータ) (2023-05-22T23:43:23Z) - DoubleMix: Simple Interpolation-Based Data Augmentation for Text
Classification [56.817386699291305]
本稿では,DoubleMixと呼ばれる単純なデータ拡張手法を提案する。
DoubleMixはまず、トレーニングデータごとにいくつかの摂動サンプルを生成する。
次に、摂動データと元のデータを使って、隠れたニューラルネットワークの空間で2段階のステップを実行する。
論文 参考訳(メタデータ) (2022-09-12T15:01:04Z) - ReMix: A General and Efficient Framework for Multiple Instance Learning
based Whole Slide Image Classification [14.78430890440035]
ワイルスライド画像(WSI)分類は、ギガピクセル解像度画像とスライドレベルのラベルを扱うために弱教師付き多重インスタンス学習(MIL)法に依存することが多い。
MILに基づくWSI分類のための汎用的で効率的なフレームワークであるReMixを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:21:35Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - SnapMix: Semantically Proportional Mixing for Augmenting Fine-grained
Data [124.95585891086894]
提案はSemantically Proportional Mixing(SnapMix)と呼ばれる
クラスアクティベーションマップ(CAM)を利用して、きめ細かいデータを強化する際にラベルノイズを低減します。
本手法は既存の混合型アプローチを一貫して上回っている。
論文 参考訳(メタデータ) (2020-12-09T03:37:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。